KR102494973B1 - Method and Apparatus for Measuring Impact Information of Guided Air Vehicle - Google Patents

Method and Apparatus for Measuring Impact Information of Guided Air Vehicle Download PDF

Info

Publication number
KR102494973B1
KR102494973B1 KR1020210046733A KR20210046733A KR102494973B1 KR 102494973 B1 KR102494973 B1 KR 102494973B1 KR 1020210046733 A KR1020210046733 A KR 1020210046733A KR 20210046733 A KR20210046733 A KR 20210046733A KR 102494973 B1 KR102494973 B1 KR 102494973B1
Authority
KR
South Korea
Prior art keywords
impact
image
coordinates
inclination angle
angle
Prior art date
Application number
KR1020210046733A
Other languages
Korean (ko)
Other versions
KR20220140342A (en
Inventor
박정호
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020210046733A priority Critical patent/KR102494973B1/en
Publication of KR20220140342A publication Critical patent/KR20220140342A/en
Application granted granted Critical
Publication of KR102494973B1 publication Critical patent/KR102494973B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F42AMMUNITION; BLASTING
    • F42BEXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
    • F42B15/00Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
    • F42B15/01Arrangements thereon for guidance or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치를 개시한다.
본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법은, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계를 포함할 수 있다.
Disclosed is a method for measuring impact information of a guided flight vehicle and an apparatus therefor.
A method for measuring impact information of a guided vehicle according to an embodiment of the present invention includes an initial coordinate measuring step of measuring the coordinates of a target and the coordinates of an image capture device installed at a predetermined distance and angle based on the center of the target; When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final entry angle and a final impact angle using the inclination angle may be included.

Description

유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치{Method and Apparatus for Measuring Impact Information of Guided Air Vehicle}Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

본 발명은 유도 비행체의 탄착 정보를 계측하는 방법 및 그를 위한 장치에 관한 것이다.The present invention relates to a method for measuring impact information of a guided vehicle and an apparatus therefor.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section simply provide background information on the embodiments of the present invention and do not constitute prior art.

일반적으로 유도 비행체에 대한 체계 개발 시에는 유도 비행체에 계측 장비가 장착된 상태에서 비행 궤적, 탄착 정확도 등의 시험 평가를 수행하여 시험평가 결과를 획득 및 검증한다. 하지만, 유도 비행체에 대한 체계 개발이 완료된 이후 양산된 유도 비행체에 대해 실사격 시험 등을 수행하는 경우 유도 비행체에 원격 계측장비가 탑재되지 않기 때문에 표적에 대한 유도 비행체의 진입각, 탄착각에 대한 측정이 불가능하다.In general, when developing a system for a guided flight vehicle, test evaluation results such as flight trajectory and impact accuracy are obtained and verified while measuring equipment is installed on the guided flight vehicle. However, when a live-fire test is performed on mass-produced guided vehicles after the development of the system for the guided vehicles is completed, the measurement of the approach angle and impact angle of the guided vehicle to the target is difficult because the remote measurement equipment is not mounted on the guided vehicle. impossible.

유도 비행체의 진입각은 표적 평면에 대해 유도 비행체가 진입하는 각을 의미하며, 표적 주변 지형물 또는 구조물 등을 회피하도록 기 계획된 경로로의 비행 여부를 확인한다. 유도 비행체의 탄착각은 표적의 평면과 지면 탄착 시 유도 비행체의 속도 벡터가 이루는 경사각으로 효과도와 연관된 중요한 성능평가 항목이다.The approach angle of the guided vehicle means the angle at which the guided vehicle enters the target plane, and it is checked whether or not the guided vehicle is flying in a pre-planned path to avoid a feature or structure around the target. The impact angle of the guided vehicle is an important performance evaluation item related to the effect diagram, which is the inclination angle formed by the speed vector of the guided vehicle when it hits the ground and the plane of the target.

일반적으로 고정된 지상 표적에 대한 유도 비행체의 시험에서 탄착점을 측정하기 위해 영상, GPS 좌표 측정, 계측 장비로 측정된 탄 내 항법정보(위치) 등을 이용하는 다양한 방법으로 탄착위치를 획득한다. 이와 같이, 유도 비행체의 탄착점 위치를 산출하는 선행특허는 대한민국등록특허 제10-1624416호, 대한민국등록특허 제10-1116156호 등이 존재하나, 종래에는 탄착점 위치를 산출할 뿐이며, 진입각, 탄착각을 계산하기는 어렵다. In general, in order to measure the impact point in the test of a guided flight vehicle on a fixed ground target, the impact position is obtained by various methods using images, GPS coordinate measurement, and navigation information (position) measured by measuring equipment in the projectile. In this way, there are prior patents for calculating the position of the impact point of the guided vehicle, such as Korean Patent Registration No. 10-1624416 and Korean Patent Registration No. 10-1116156, but conventionally, only the position of the impact point is calculated, and the approach angle and impact angle is difficult to calculate.

고가의 원격 송수신 장비(원격 계측장비)가 탑재되지 않은 유도 비행체의 실사격 시험에서 진입각과 탄착각 검증이 어렵고, 종래에는 영상 등의 다양한 방법을 이용하여 탄착 위치만을 추출하기 위한 시스템 및 방법에 대한 기술만이 존재하여 유도 비행체의 진입각, 탄착각 계산은 불가능함에 따라 성능평가에 있어 한계가 있다.It is difficult to verify the approach angle and impact angle in a live-fire test of a guided aircraft without expensive remote transmission/reception equipment (remote measurement equipment), and technology for systems and methods for extracting only the impact position using various methods such as video There is a limitation in performance evaluation as it is impossible to calculate the approach angle and impact angle of the guided flight vehicle.

본 발명은 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.The present invention calculates the first inclination angle of the guided vehicle based on the impact image of the guided vehicle, calculates the second inclination angle of the guided vehicle based on the initial set value, and uses the first inclination angle and the second inclination angle to determine the inclination angle of the guided vehicle. A main object of the present invention is to provide a method for measuring impact information of a guided vehicle that generates impact information including a final approach angle and a final impact angle, and a device therefor.

본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 유도 비행체의 탄착 정보 계측 방법은, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계를 포함할 수 있다. According to one aspect of the present invention, a method for measuring impact information of a guided vehicle to achieve the above object includes measuring the coordinates of a target and the coordinates of an image capture device installed at a predetermined distance and angle based on the center of the target. coordinate measurement step; When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final entry angle and a final impact angle using the inclination angle may be included.

또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 유도 비행체 계측장치는, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정부; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득부; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출부; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리부를 포함할 수 있다. In addition, according to another aspect of the present invention, the guided vehicle measuring device for achieving the above object is an initial coordinate for measuring the coordinates of a target and the coordinates of an image capture device installed at a preset distance and angle based on the center of the target. measuring part; When the guided vehicle lands on the ground, an impact image acquisition unit for acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction unit for extracting image pixel coordinates of the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. It may include a measurement processing unit that generates impact information including a final entry angle and a final impact angle using the inclination angle.

이상에서 설명한 바와 같이, 본 발명은 원격 계측장비가 장착되지 않은 유도 비행체 실사격 시험에서 지상에 설치된 다수의 카메라를 이용하여 획득한 영상 정보로부터 유도 비행체의 성능 평가 파라미터인 진입각과 탄착각의 추출이 가능하다는 효과가 있다.As described above, the present invention can extract the approach angle and impact angle, which are performance evaluation parameters of the guided vehicle, from image information obtained using a plurality of cameras installed on the ground in a live shooting test of the guided vehicle without remote measurement equipment. It works.

도 1은 본 발명의 실시예에 따른 유도 비행체 계측 시스템의 운용 개념을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 유도 비행체 계측 시스템을 개략적으로 나타낸 블록 구성도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시예에 따른 진입 시점 및 탄착 시점의 탄착 영상을 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따른 유도 비행체가 탄착되는 경사각을 나타낸 예시도이다.
도 7은 본 발명의 실시예에 따른 유도 비행체 계측을 위한 좌표계 간의 관계를 설명하기 위한 도면이다.
1 is a diagram for explaining the operating concept of a guided vehicle measurement system according to an embodiment of the present invention.
2 is a block diagram schematically showing a guided vehicle measurement system according to an embodiment of the present invention.
3 and 4 are flowcharts for explaining a method for measuring impact information of a guided vehicle according to an embodiment of the present invention.
5 is an exemplary view showing images of an impact at an entry point and a point of impact according to an embodiment of the present invention.
6 is an exemplary diagram showing an inclination angle at which a guided flight vehicle lands according to an embodiment of the present invention.
7 is a diagram for explaining a relationship between coordinate systems for measuring a guided vehicle according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, although preferred embodiments of the present invention will be described below, the technical idea of the present invention is not limited or limited thereto and can be modified and implemented in various ways by those skilled in the art. Hereinafter, a method for measuring impact information of a guided vehicle proposed in the present invention and an apparatus therefor will be described in detail with reference to the drawings.

본 발명은 지상 표적에 탄착하는 유도 비행체의 시험 시 탄착지에 설치된 다수의 카메라 영상정보를 이용하여 탄착각과 진입각을 산출하는 시스템과 방법을 제공한다. The present invention provides a system and method for calculating an angle of impact and an approach angle using image information of a plurality of cameras installed on a landing site during a test of a guided vehicle landing on a ground target.

본 발명에서는 유도 비행체의 비행 정보를 나타내는 항법정보(위치, 속도, 자세 등)를 지상으로 송신할 수 있는 원격 계측장비를 탑재하지 않은 유도 비행체의 탄착각과 진입각을 산출하는 것으로 가정한다. In the present invention, it is assumed that the landing angle and approach angle of the guided vehicle are not equipped with remote measurement equipment capable of transmitting navigation information (position, speed, attitude, etc.) representing the flight information of the guided vehicle to the ground.

도 1은 본 발명의 실시예에 따른 유도 비행체 계측 시스템의 운용 개념을 설명하기 위한 도면이다. 1 is a diagram for explaining the operating concept of a guided vehicle measurement system according to an embodiment of the present invention.

일반적으로 유도 비행체에 대한 체계 개발 시에는 유도 비행체에 계측 장비가 장착된 상태에서 비행 궤적, 탄착 정확도 등의 시험 평가를 수행하여 시험평가 결과를 획득 및 검증한다. 하지만, 유도 비행체에 대한 체계 개발이 완료된 이후 양산된 유도 비행체에 대해 실사격 시험 등을 수행하는 경우 유도 비행체에 원격 계측장비가 탑재되지 않기 때문에 표적에 대한 유도 비행체의 진입각, 탄착각에 대한 측정이 불가능하다. In general, when developing a system for a guided flight vehicle, test evaluation results such as flight trajectory and impact accuracy are obtained and verified while measuring equipment is installed on the guided flight vehicle. However, when a live-fire test is performed on mass-produced guided vehicles after the development of the system for the guided vehicles is completed, the measurement of the approach angle and impact angle of the guided vehicle to the target is difficult because the remote measurement equipment is not mounted on the guided vehicle. impossible.

이에, 본 발명의 실시예에 따른 유도 비행체 계측 시스템(10)은 탄착 지역에 설치된 다수의 카메라를 통해 획득된 영상 정보를 이용하여 유도 비행체의 진입각 및 탄착각에 대한 탄착 정보를 생성한다. Accordingly, the guided vehicle measurement system 10 according to an embodiment of the present invention generates impact information on the approach angle and impact angle of the guided vehicle using image information obtained through a plurality of cameras installed in the impact area.

도 1을 참고하면, 유도 비행체 계측 시스템(10)은 지상 또는 공중에서 발사된 유도 비행체가 지상에 설치된 표적에 탄착되면, 탄착 지역에 설치된 다수의 카메라로부터 탄착 영상을 획득한다. 유도 비행체 계측 시스템(10)에서 설치되는 카메라의 개수는 특정하여 제한하지 않으나, 최소 3 개 이상인 것이 바람직하다. Referring to FIG. 1 , when a guided vehicle launched from the ground or in the air lands on a target installed on the ground, the guided vehicle measurement system 10 acquires images of impact from a plurality of cameras installed in the area of impact. The number of cameras installed in the guided vehicle measurement system 10 is not specifically limited, but is preferably at least three.

유도 비행체 계측 시스템(10)에서는 설치된 표적의 중심(O)을 기준으로 일정거리 및 각도에 카메라(C1, C2, C3) 를 설치하여 탄착 영상을 촬영한다. 또한, 유도 비행체 계측 시스템(10)에서는 촬영된 영상 내에 유도 비행체가 명확히 식별된 특정 시점(진입 시점)을 t1, 지면에 탄착되는 특정 시점(탄착 시점)을 t2로 정의한다. 유도 비행체 계측 시스템(10)에서는 진입 시점에서의 유도 비행체의 진입 위치를 Pt1으로 정의하고, 탄착 시점에서의 유도 비행체의 탄착 위치를 Pt2로 정의한다. In the guided flight vehicle measurement system 10, cameras C1, C2, and C3 are installed at a certain distance and angle based on the center O of the installed target to capture an impact image. In addition, in the guided vehicle measurement system 10, a specific time point (entry time point) at which the guided vehicle is clearly identified in the photographed image is defined as t1, and a specific point in time (impact point) at which the vehicle lands on the ground is defined as t2. In the guided vehicle measurement system 10, the entry position of the guided vehicle at the point of entry is defined as P t1 , and the impact position of the guided vehicle at the point of impact is defined as P t2 .

도 2는 본 발명의 실시예에 따른 유도 비행체 계측 시스템을 개략적으로 나타낸 블록 구성도이다.2 is a block diagram schematically showing a guided vehicle measurement system according to an embodiment of the present invention.

본 실시예에 따른 유도 비행체 계측 시스템(100)은 영상 촬영장치(200) 및 유도 비행체 계측장치(300)를 포함한다. 영상 촬영장치(200)는 복수의 카메라(210, 220, 230)을 포함한다. 또한, 유도 비행체 계측장치(300)는 초기 좌표 측정부(310), 탄착 영상 획득부(320), 픽셀 좌표 추출부(330) 및 계측 처리부(340)를 포함한다. 도 1의 유도 비행체 계측 시스템(100)은 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 유도 비행체 계측 시스템(100)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. The guided vehicle measurement system 100 according to this embodiment includes an image capture device 200 and a guided vehicle measurement device 300 . The image capture device 200 includes a plurality of cameras 210, 220, and 230. In addition, the guided vehicle measurement device 300 includes an initial coordinate measurement unit 310, an impact image acquisition unit 320, a pixel coordinate extraction unit 330, and a measurement processing unit 340. The guided vehicle measurement system 100 of FIG. 1 is according to an embodiment, and all blocks shown in FIG. 1 are not essential components, and in another embodiment, some blocks included in the guided vehicle measurement system 100 are added. , may be changed or deleted.

유도 비행체 계측 시스템(100)은 탄착지에 설치된 영상 촬영장치(200)를 이용하여 지상 표적에 탄착되는 유도 비행체에 대한 탄착 영상을 촬영하고, 탄착 영상을 기반으로 유도 비행체의 진입각 및 탄착각을 포함하는 탄착 정보를 생성한다. The guided vehicle measurement system 100 uses the image capture device 200 installed in the landing site to capture an image of a guided vehicle landing on a ground target, and calculates an approach angle and an angle of impact of the guided vehicle based on the image of the impact. Generates impact information including

영상 촬영장치(200)는 탄착지에 설치되어 유도 비행체의 탄착 영상을 촬영하는 장치를 의미한다. The image capture device 200 refers to a device that is installed at the landing site and captures an image of the guided flight vehicle's landing.

여기서, 영상 촬영장치(200)는 복수의 카메라(210, 220, 230)를 포함할 수 있다. 복수의 카메라(210, 220, 230) 각각은 탄착지에 설치된 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된다. Here, the image capture device 200 may include a plurality of cameras 210 , 220 , and 230 . Each of the plurality of cameras 210, 220, and 230 is installed at a predetermined distance and angle based on the center of the target installed in the landing site.

본 실시예에 따른 영상 촬영장치(200)는 제1 카메라(210), 제2 카메라(220) 및 제3 카메라(230)와 같이 3 개의 카메라로 구성될 수 있으나 반드시 이에 한정되는 것은 아니며, 카메라의 개수는 변경될 수 있다. The image capturing device 200 according to the present embodiment may include three cameras such as the first camera 210, the second camera 220, and the third camera 230, but is not necessarily limited thereto, and the camera The number of can be changed.

영상 촬영장치(200)는 촬영된 탄착 영상을 유도 비행체 계측장치(300)로 전송한다. 여기서, 탄착 영상은 2 차원 영상일 수 있으며, 적어도 하나의 프레임을 포함한 영상일 수 있다. The image capture device 200 transmits the photographed image of the impact to the guided vehicle measuring device 300 . Here, the impact image may be a two-dimensional image or an image including at least one frame.

유도 비행체 계측장치(300)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. 이하, 유도 비행체 계측장치(300)에 포함된 구성요소 각각에 대해 설명하도록 한다. The guided vehicle measuring device 300 calculates the first inclination angle of the guided vehicle based on the impact image of the guided vehicle, calculates the second inclination angle of the guided vehicle based on the initial setting value, and calculates the first inclination angle and the second inclination angle. It generates impact information including the final approach angle and final impact angle of the guided flight vehicle. Hereinafter, each of the components included in the guided vehicle measuring device 300 will be described.

초기 좌표 측정부(310)는 기 설치된 표적과 영상 촬영장치(200) 등의 초기 좌표를 측정하는 동작을 수행한다. The initial coordinate measurement unit 310 performs an operation of measuring the initial coordinates of a pre-installed target and the image capture device 200 .

초기 좌표 측정부(310)는 표적의 좌표, 표적의 중심을 기준으로 기 설정된 거리 및 각도로 설치된 영상 촬영장치(200)의 좌표 등에 대한 초기 좌표를 측정한다. 여기서, 초기 좌표는 GPS 좌표인 것이 바람직하다. The initial coordinate measurement unit 310 measures initial coordinates, such as the coordinates of the target and the coordinates of the image capture device 200 installed at a preset distance and angle based on the center of the target. Here, the initial coordinates are preferably GPS coordinates.

초기 좌표 측정부(310)는 기 설정된 센서 또는 탐색 장치에 의해 측정된 좌표를 기반으로 초기 좌표를 측정할 수 있으나 반드시 이에 한정되는 것은 아니며, 사용자에 의래 측정된 좌표 또는 외부 측정 장치로부터 측정된 좌표를 입력 받아 초기 좌표를 측정할 수도 있다. The initial coordinate measurement unit 310 may measure the initial coordinates based on the coordinates measured by a preset sensor or navigation device, but is not necessarily limited thereto, and coordinates measured by the user or coordinates measured from an external measurement device It is also possible to measure the initial coordinates by receiving .

초기 좌표 측정부(310)에서 측정된 초기 좌표는 표적에 관련된 좌표, 영상 촬영장치(200)에 포함된 적어도 하나의 카메라 각각에 대한 좌표, 설치 각도 등을 포함할 수 있다. The initial coordinates measured by the initial coordinate measuring unit 310 may include target-related coordinates, coordinates for each of at least one camera included in the image capture device 200, installation angle, and the like.

탄착 영상 획득부(320)는 유도 비행체가 지면에 탄착되는 경우, 영상 촬영장치(200)로부터 탄착 위치에 대한 유도 비행체의 탄착 영상을 획득한다. When the guided vehicle lands on the ground, the impact image acquisition unit 320 acquires an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device 200 .

탄착 영상 획득부(320)는 탄착 위치를 측정하기 위한 유도 비행체의 탄착 영상을 획득하고, 획득된 탄착 영상을 저장할 수 있다. 여기서, 탄착 영상은 유도 비행체 계측장치(300) 내에 저장하는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 별도의 저장장치, 데이터베이스, 클라우드 등에 저장될 수도 있다. The impact image acquisition unit 320 may acquire an impact image of the guided flight vehicle for measuring the impact position and store the obtained impact image. Here, the image of the impact is preferably stored in the guided vehicle measuring device 300, but is not necessarily limited thereto, and may be stored in a separate storage device, database, cloud, or the like.

여기서, 탄착 영상은 2차원 영상인 것이 바람직하며, 영상 촬영장치(200)에 포함된 적어도 하나의 카메라 각각에서 촬영된 적어도 하나의 영상을 포함할 수 있다. Here, the impact image is preferably a two-dimensional image, and may include at least one image captured by each of at least one camera included in the image capture device 200 .

픽셀 좌표 추출부(330)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 영상 픽셀좌표를 추출한다. The pixel coordinate extractor 330 extracts image pixel coordinates of the guided vehicle based on the image of the guided vehicle's impact.

픽셀 좌표 추출부(330)는 탄착 영상에서 유도 비행체의 진입시점과 탄착시점 각각에 대한 영상 픽셀좌표를 추출한다. The pixel coordinate extraction unit 330 extracts image pixel coordinates for each of the entry point and the point of impact of the guided flight vehicle from the impact image.

픽셀 좌표 추출부(330)는 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출한다. 여기서, 제1 영상 픽셀좌표는 유도 비행체의 진입 시점에서 추출된 좌표이고, 제2 영상 픽셀좌표는 유도 비행체의 탄착 시점에서 추출된 좌표를 의미한다. 예를 들어, 픽셀 좌표 추출부(330)는 탄착 영상 내에서 t1 시점(진입점)에서의 제1 영상 픽셀좌표를 (xp1, yp1)로 추출하고, t2 시점(탄착점)에서의 제2 영상 픽셀좌표를 (xp2, yp2)로 추출할 수 있다. The pixel coordinate extraction unit 330 extracts pixel coordinates of the first image at the first viewpoint and pixel coordinates of the second image at the second viewpoint from the impact image. Here, the first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle. For example, the pixel coordinate extractor 330 extracts (x p1 , y p1 ) the pixel coordinates of the first image at time t1 (entry point) in the impact image, and extracts the pixel coordinates of the second image at time t2 (impression point). Image pixel coordinates can be extracted as (x p2 , y p2 ).

계측 처리부(340)는 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출한다. 계측 처리부(340)는 제1 경사각 및 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. The measurement processing unit 340 calculates a first inclination angle based on image pixel coordinates, and calculates a second inclination angle based on the distortion pixel coordinates calculated using a preset initial entry value and an initial impact angle. The measurement processing unit 340 generates impact information including a final entry angle and a final impact angle using the first and second inclination angles.

이하, 계측 처리부(340)에서 최종 진입각 및 최종 탄착각을 산출하기 위한 구체적인 단계에 대해 설명하도록 한다. Hereinafter, detailed steps for calculating the final entry angle and the final impact angle in the measurement processing unit 340 will be described.

우선, 계측 처리부(340)는 제1 경사각을 계산하는 단계를 수행한다. First, the measurement processing unit 340 performs a step of calculating a first inclination angle.

계측 처리부(340)는 표적 좌표계의 변환을 수행하며, 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 이용하여 제1 경사각을 계산한다. The measurement processing unit 340 converts the target coordinate system and calculates a first inclination angle using pixel coordinates of the first image at the first viewpoint and pixel coordinates of the second image at the second viewpoint.

계측 처리부(340)는 탄착 영상에서 지면의 수평선에 대해 제1 영상 픽셀좌표의 진입점과 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 제1 경사각을 계산한다. 여기서, 제1 경사각은 항상 양의 값인 것이 바람직하다. The measurement processing unit 340 calculates a first inclination angle formed by a vector connecting the entry point of pixel coordinates of the first image and the point of impact of pixel coordinates of the second image with respect to the horizontal line of the ground in the impact image. Here, it is preferable that the first inclination angle is always a positive value.

본 실시예에 따른 계측 처리부(340)에서 제1 경사각을 계산하는 동작은 도 4의 단계 S420에 기재된 동작과 대응된다. An operation of calculating the first inclination angle in the measurement processing unit 340 according to the present embodiment corresponds to the operation described in step S420 of FIG. 4 .

다음으로, 계측 처리부(340)는 제2 경사각을 계산하는 단계를 수행한다. Next, the measurement processing unit 340 performs a step of calculating the second inclination angle.

계측 처리부(340)는 탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출한다. 여기서, 계측 처리부(340)는 초기 진입값 및 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 제1 공간 좌표 및 제2 공간 좌표를 추정한다. The measurement processing unit 340 converts the impact coordinate system and calculates first spatial coordinates and second spatial coordinates based on the preset initial entry value and the initial impact angle. Here, the measurement processing unit 340 estimates first spatial coordinates and second spatial coordinates obtained by converting the impact coordinate system into the target coordinate system using the initial entry value and the initial impact angle.

이후, 계측 처리부(340)는 제1 공간 좌표 및 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 제2 경사각을 계산한다. Thereafter, the measurement processing unit 340 calculates a second tilt angle by converting the first spatial coordinates and the second spatial coordinates into normalized image coordinates and then calculating the first distorted pixel coordinates and the second distorted pixel coordinates.

계측 처리부(340)는 제1 공간 좌표 및 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 제1 시점의 좌표를 대체하기 위한 제1 왜곡 픽셀좌표를 산출하고, 제2 시점의 좌표를 대체하기 위한 제2 왜곡 픽셀좌표를 산출한다. The measurement processing unit 340 converts the first spatial coordinates and the second spatial coordinates based on the normalized image coordinate system, and then calculates first distorted pixel coordinates for replacing the coordinates of the first view through pixel image coordinate system conversion, and second Second distortion pixel coordinates for replacing the coordinates of the viewpoint are calculated.

계측 처리부(340)는 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 연결한 벡터가 이루는 제2 경사각을 계산한다. The measurement processing unit 340 calculates a second inclination angle formed by a vector connecting the first and second distortion pixel coordinates.

본 실시예에 따른 계측 처리부(340)에서 제2 경사각을 계산하는 동작은 도 4의 단계 S430 내지 단계 S470에 기재된 동작과 대응된다. An operation of calculating the second inclination angle in the measurement processing unit 340 according to the present embodiment corresponds to the operations described in steps S430 to S470 of FIG. 4 .

마지막으로, 계측 처리부(340)는 탄착 정보 계측 처리 단계를 수행한다. Finally, the measurement processing unit 340 performs the impact information measurement processing step.

계측 처리부(340)는 제1 경사각 및 제2 경사각 기반의 목적함수를 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. The measurement processing unit 340 generates impact information including a final entry angle and a final impact angle by using an objective function based on the first and second tilt angles.

계측 처리부(340)는 제1 경사각과 제2 경사각의 잔차 제곱을 최소화하는 목적 함수를 이용하여 최종 진입각 및 상기 최종 탄착각을 포함하는 탄착 정보를 생성한다. The measurement processor 340 generates impact information including the final entry angle and the final impact angle by using an objective function that minimizes the square of the residual between the first and second tilt angles.

계측 처리부(340)는 목적 함수의 산출값이 기 설정된 허용오차 이상인 경우, 초기 진입값 및 초기 탄착각을 업데이트하여 신규 제2 경사각을 산출하는 동작을 반복하여 수행한다. 이후, 계측 처리부(340)는 제1 경사각 및 신규 제2 경사각의 잔차 제곱을 최소화하는 최종 진입각 및 최종 탄착각을 산출한다. When the calculated value of the objective function is greater than or equal to a predetermined tolerance, the measurement processing unit 340 repeatedly performs an operation of calculating a new second inclination angle by updating the initial entry value and the initial impact angle. Thereafter, the measurement processing unit 340 calculates a final entry angle and a final impact angle that minimize the residual square of the first inclination angle and the new second inclination angle.

본 실시예에 따른 계측 처리부(340)에서 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 동작은 도 4의 단계 S480 내지 단계 S490에 기재된 동작과 대응된다. An operation of generating impact information including a final approach angle and a final impact angle in the measurement processing unit 340 according to the present embodiment corresponds to operations described in steps S480 to S490 of FIG. 4 .

도 3 및 도 4는 본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 설명하기 위한 순서도이다.3 and 4 are flowcharts for explaining a method for measuring impact information of a guided vehicle according to an embodiment of the present invention.

도 3는 유도 비행체 계측장치(300)에서 유도 비행체의 탄착 정보를 계측하는 방법을 개략적으로 나타낸 순서도이다. 3 is a flowchart schematically illustrating a method of measuring impact information of a guided vehicle in the guided vehicle measuring device 300.

유도 비행체 계측장치(300)는 기 설치된 표적 및 영상 촬영장치(200)에 대한 표적 중심 좌표, 영상 촬영장치(200)에 포함된 카메라 각각의 좌표를 포함한느 초기 좌표를 측정한다(S310). 여기서, 초기 좌표는 GPS 좌표인 것이 바람직하다.The guided vehicle measuring device 300 measures initial coordinates including target center coordinates for the previously installed target and the image capture device 200 and coordinates of each camera included in the image capture device 200 (S310). Here, the initial coordinates are preferably GPS coordinates.

유도 비행체 계측장치(300)는 유도 비행체가 지면에 탄착되면 탄착 위치를 측정하고, 측정된 탄착 위치에 대한 탄착 영상을 획득한다(S320, S330). 여기서, 탄착 영상은 2차원 영상인 것이 바람직하다.When the guided vehicle lands on the ground, the guided vehicle measuring device 300 measures the location of the impact and acquires an image of the impact of the measured location (S320 and S330). Here, the impact image is preferably a two-dimensional image.

유도 비행체 계측장치(300)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 진입시점 및 탄착시점 각각에 대한 영상 픽셀좌표(이미지 좌표)를 추출한다(S340). The guided vehicle measuring device 300 extracts image pixel coordinates (image coordinates) for each entry point and impact point of the guided vehicle based on the image of the guided vehicle's impact (S340).

유도 비행체 계측장치(300)는 영상 픽셀좌표, 초기 설정값 등을 이용하여 유도 비행체의 진입각 및 탄착각을 포함하는 탄착 정보를 생성한다(S350).The guided vehicle measuring device 300 generates impact information including an approach angle and an impact angle of the guided vehicle using image pixel coordinates, initial settings, and the like (S350).

유도 비행체 계측장치(300)는 탄착 영상에서 추출된 영상 픽셀좌표를 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 산출한다. The guided vehicle measuring device 300 calculates the first inclination angle of the guided vehicle based on the image pixel coordinates extracted from the impact image, calculates the second inclination angle of the guided vehicle based on the initial setting value, and calculates the first inclination angle and the second inclination angle of the guided vehicle. 2 Calculate the final approach angle and final impact angle of the guided flight vehicle using the inclination angle.

도 4는 유도 비행체 계측장치(300)에서 유도 비행체의 탄착 정보를 계측하는 방법을 구체적으로 나타낸 순서도이다. 4 is a flowchart showing a method of measuring impact information of a guided vehicle in the guided vehicle measuring device 300 in detail.

유도 비행체 계측장치(300)는 표적점을 기준으로 기 설정된 일정 거리 및 각도에 설치된 카메라와 표적의 초기 좌표를 측정한다(S410). 유도 비행체 계측장치(300)는 표적의 중심좌표, 카메라 좌표를 입력 받을 수 있다. The guided vehicle measuring device 300 measures the initial coordinates of the target and the camera installed at a predetermined distance and angle based on the target point (S410). The guided vehicle measuring device 300 may receive center coordinates of the target and camera coordinates.

또한, 유도 비행체 계측장치(300)는 유도 비행체가 탄착된 이후 탄착 영상을 통해 추출된 탄착점의 좌표, 영상 픽셀좌표 등을 입력 받을 수 있다. 구체적으로, 유도 비행체 계측장치(300)는 유도 비행체 지면 탄착 후 탄착위치를 측정하고, 탄착 영상을 저장한다. 유도 비행체 계측장치(300)는 카메라의 2차원 영상에서 유도 비행체의 진입시점과 탄착시점의 영상 픽셀좌표를 추출한다. 유도 비행체 계측장치(300)는 탄착 영상에서 제1 시점(진입점)에서의 제1 영상 픽셀좌표 (xp1, yp1)와 제2 시점(탄착점)에서의 제2 영상 픽셀좌표(xp2, yp2) 를 추출한다. In addition, the guided vehicle measuring device 300 may receive coordinates of an impact point, image pixel coordinates, etc. extracted through an image of the impact after the guided vehicle lands. Specifically, the guided vehicle measuring device 300 measures the impact position after the guided vehicle lands on the ground, and stores an image of the impact. The guided vehicle measuring device 300 extracts image pixel coordinates of the entry point and the point of impact of the guided vehicle from the two-dimensional image of the camera. The guided vehicle measuring device 300 determines the first image pixel coordinates (x p1 , y p1 ) at the first viewpoint (entry point) and the second image pixel coordinates (x p2 , y p1 ) at the second viewpoint (impact point) in the impact image y p2 ) is extracted.

유도 비행체 계측장치(300)는 카메라의 설치 각도를 계산하며, 좌표계 변환을 수행하고, 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 이용하여 제1 경사각을 계산한다(S420). The guided vehicle measuring device 300 calculates the installation angle of the camera, performs coordinate system conversion, and calculates the first inclination angle by using the pixel coordinates of the first image at the first viewpoint and the pixel coordinates of the second image at the second viewpoint. Calculate (S420).

단계 S420에서, 유도 비행체 계측장치(300)는 GPS 좌표를 표적 좌표계로 변환하는 단계를 수행한다. In step S420, the guided vehicle measuring device 300 performs a step of converting GPS coordinates into a target coordinate system.

유도 비행체 계측장치(300)는 지상에서 측정된 표적 중심과 카메라, 탄착점은 WGS 84 GPS(위도, 고도, 경도)로 이를 ECEF(지구중심 좌표)로 변환한다. The guided vehicle measuring device 300 converts the target center, camera, and impact point measured on the ground into WGS 84 GPS (latitude, altitude, and longitude) into ECEF (Earth-centered coordinates).

유도 비행체 계측장치(300)는 변환된 지구중심 좌표축에서 표적 중심을 원점으로 하고 진북방향을 X축, 동쪽방향을 Y축, 지면방향을 Z 축으로 정의하는 NED(North-East-Down) 좌표계로 변환하는 행렬을 구성하여 표적 및 카메라 기준점을 계산한다. 예를 들어, 표적 원점은 O = (0, 0, 0)로 정의되고, 카메라 위치는 PC = (XC, YC, ZC)로 정의되며, 탄착 위치는 Pip = (Xip, Yip, Zip)로 정의된다. The guided vehicle measuring device 300 is a North-East-Down (NED) coordinate system in which the center of the target is the origin in the converted earth-centered coordinate axis, and the X-axis is the true north direction, the Y-axis is the east direction, and the Z-axis is the ground direction. Calculate the target and camera reference points by constructing a transformation matrix. For example, the target origin is defined as O = (0, 0, 0), the camera position is defined as P C = (X C , Y C , Z C ), and the impact position is defined as P ip = (X ip , Y ip , Z ip ).

이후, 유도 비행체 계측장치(300)는 카메라 설치각을 계산할 수 있다. 유도 비행체 계측장치(300)는 측정된 카메라 위치에서 [수학식 1]을 이용하여 진북기준 설치각을 계산할 수 있다. After that, the guided vehicle measuring device 300 may calculate the camera installation angle. The guided vehicle measuring device 300 may calculate the true north standard installation angle using [Equation 1] at the measured camera position.

Figure 112021042003882-pat00001
Figure 112021042003882-pat00001

c: 카메라 설치각, XC: 카메라 위치의 x좌표, YC: 카메라 위치의 y좌표)c : camera installation angle, X C : x coordinate of camera position, Y C : y coordinate of camera position)

이후, 유도 비행체 계측장치(300)는 표적 좌표계 및 카메라 좌표계 간의 변환 행렬을 계산한다. 유도 비행체 계측장치(300)에서 표적 좌표계로부터 카메라 좌표계 변환은 병진이동(To/c)과 회전행렬

Figure 112021042003882-pat00002
을 이용하여 계산될 수 있다. Then, the guided vehicle measuring device 300 calculates a transformation matrix between the target coordinate system and the camera coordinate system. In the guided vehicle measuring device 300, conversion of the camera coordinate system from the target coordinate system is a translational movement (T o / c ) and a rotation matrix
Figure 112021042003882-pat00002
can be calculated using

회전행렬

Figure 112021042003882-pat00003
은 3-2-1 변환(Z-Y-X) 법칙을 따르며, 병진이동 및 회전행렬은 [수학식 2]와 같이 정의될 수 있다. rotation matrix
Figure 112021042003882-pat00003
follows the 3-2-1 transformation (ZYX) rule, and the translation and rotation matrices can be defined as in [Equation 2].

Figure 112021042003882-pat00004
Figure 112021042003882-pat00004

c: 카메라 설치각, PC: 카메라 위치 좌표,

Figure 112021042003882-pat00005
: 회전행렬)(ψ c : camera installation angle, P C : camera position coordinates,
Figure 112021042003882-pat00005
: rotation matrix)

이후, 유도 비행체 계측장치(300)는 영상 픽셀좌표를 이용하여 제1 경사각을 계산하는 동작을 수행한다. Thereafter, the guided vehicle measuring device 300 performs an operation of calculating a first inclination angle using the image pixel coordinates.

유도 비행체 계측장치(300)는 제1 시점에서의 진입점에 대한 제1 영상 픽셀좌표(xp1, yp1)와 제2 시점에서의 탄착점에 대한 제2 영상 픽셀좌표(xp2, yp2)를 이용하여 제1 경사각(θm)을 계산한다. 여기서, 제1 경사각은 2 차원 탄착 영상 내의 영상 좌표에서 지면의 수평선에 대해 진입점 및 탄착점을 연결한 벡터가 이루는 각을 의미한다. 유도 비행체 계측장치(300)는 수학식 3을 이용하여 제1 경사각(θm)을 산출할 수 있다. 여기서, y'p1 = -yp1, y'p2 = -yp2로 정의한다.The guided flight vehicle measuring device 300 is the first image pixel coordinates (x p1 , y p1 ) of the entry point at the first point of view and the second image pixel coordinates (x p2 , y p2 ) of the impact point at the second point of view. The first inclination angle θ m is calculated using Here, the first inclination angle means an angle formed by a vector connecting an entry point and an impact point with respect to a horizontal line of the ground in image coordinates in a 2D impact image. The guided vehicle measuring device 300 may calculate the first inclination angle θ m using Equation 3. Here, y' p1 = -y p1 and y' p2 = -y p2 are defined.

Figure 112021042003882-pat00006
Figure 112021042003882-pat00006

m: 제1 경사각, xp1: 제1 영상 픽셀좌표의 x 좌표, yp1: 제1 영상 픽셀좌표의 y 좌표, xp2: 제2 영상 픽셀좌표의 x 좌표, yp2: 제2 영상 픽셀좌표의 y 좌표, y'p1: - yp1, y'p2: - yp2)m : 1st tilt angle, x p1 : x coordinate of pixel coordinates of 1st image, y p1 : y coordinate of pixel coordinates of 1st image, x p2 : x coordinate of pixel coordinates of 2nd image, y p2 : 2nd image y coordinate in pixel coordinates, y' p1 : - y p1 , y' p2 : - y p2 )

유도 비행체 계측장치(300)는 최적 함수 계산을 위해 기 설정된 초기 진입값(λ0) 및 초기 탄착각(γ0)을 설정한다(S430). The guided flight vehicle measuring device 300 sets a preset initial entry value (λ 0 ) and an initial impact angle (γ 0 ) for optimal function calculation (S430).

유도 비행체 계측장치(300)는 탄착 좌표계의 단위 벡터를 표적 좌표계로 변환하는 동작을 수행한다(S440).The guided vehicle measuring device 300 performs an operation of converting the unit vector of the impact coordinate system into the target coordinate system (S440).

탄착 좌표계는 탄착 위치를 원점으로 표적 좌표계에 대해 진입각, 탄착각만큼 회전한 좌표계로 X축방향은 유도 비행체의 속도 벡터와 평행하다. The impact coordinate system is a coordinate system rotated by the entry angle and impact angle with respect to the target coordinate system with the impact position as the origin, and the X-axis direction is parallel to the velocity vector of the guided flight vehicle.

유도 비행체 계측장치(300)에서, 제2 시점(t2, 탄착시점)의 3 차원 좌표(P2)는 측정되나 결정적으로 제1 시점(t1, 진입시점)의 3 차원 좌표(P1)는 측정이 불가하다. 이를 해결하기 위해 탄착 좌표계 단위벡터 [1,0,0]를 제1 시점(t1, 진입시점)으로 가정하여 적용한다. 이는 제1 시점(t1, 진입시점)의 3 차원 좌표를 알지 못하더라도 단위 벡터가 제1 시점(t1, 진입시점) 및 제2 시점(t2, 탄착시점)의 좌표를 연결한 선분과 평행하며 선분 상에 위치하기 때문에 계산되는 경사각은 동일하다.In the guided vehicle measuring device 300, the 3D coordinates (P 2 ) of the second time point (t2, point of impact) are measured, but the 3D coordinates (P 1 ) of the first time point (t1, entry point) are measured. this is impossible To solve this problem, the unit vector [1,0,0] of the impact coordinate system is assumed and applied as the first point of time (t1, entry point). This means that even if the 3D coordinates of the first point in time (t1, entry point) are not known, the unit vector is parallel to the line segment connecting the coordinates of the first point in time (t1, entry point) and the second point in time (t2, impact point), and the line segment Since it is located on the top, the calculated inclination angle is the same.

유도 비행체 계측장치(300)에서, 제2 시점(t2, 탄착시점)의 3 차원 좌표(P2, 제2 공간 좌표) 및 제1 시점(t1, 진입시점)의 3 차원 좌표(P1, 제1 공간 좌표)는 [수학식 4]에 의해 산출된다. 여기서, 제1 시점(t1)의 3 차원 좌표(제1 공간 좌표) 및 제2 시점(t2)의 3 차원 좌표(제2 공간 좌표)는 표적 좌표계 기반의 좌표를 의미한다. In the guided flight vehicle measuring device 300, the 3-dimensional coordinates (P 2 , second space coordinates) of the second point of view (t2, point of impact) and the 3-dimensional coordinates (P 1 , the first point of entry) of the first point of time (t1, point of entry) 1 spatial coordinate) is calculated by [Equation 4]. Here, the 3D coordinates (first spatial coordinates) of the first viewpoint t1 and the 3D coordinates (second spatial coordinates) of the second viewpoint t2 refer to coordinates based on the target coordinate system.

Figure 112021042003882-pat00007
Figure 112021042003882-pat00007

(P1: 제1 시점(t1)의 3 차원 좌표, P2: 제2 시점(t2)의 3 차원 좌표, λ0: 초기 진입값, γ0: 초기 탄착각)(P 1 : 3-dimensional coordinates of the first time point t1, P 2 : 3-dimensional coordinates of the second time point t2, λ 0 : initial entry value, γ 0 : initial impact angle)

이후, 유도 비행체 계측장치(300)는 표적 좌표계의 제1 공간 좌표 및 제2 공간 좌표를 정규화영상 좌표로 변환한다(S450). Thereafter, the guided vehicle measuring device 300 converts the first spatial coordinates and the second spatial coordinates of the target coordinate system into normalized image coordinates (S450).

사영기하학은 투영을 다루는 기하학이며 카메라로 획득한 영상은 3차원 공간에 있는 점들을 영상픽셀 평면에 투영시킨 것이다. 카메라 초점과 투영된 점을 연결하면 투영선이 나오고 투영선상에 있는 3차원 모든 점들은 동일한 점으로 투영된다. 이러한 투영관계는 동차 좌표의 개념과 일치하며 동차 좌표는 임의의 0이 아닌 상수 w에 대해 (x,y)를 (wx, wy, w)로 표현하는 것으로 스케일은 무시된다. Projection geometry is a geometry that handles projection, and an image acquired by a camera is a projection of points in a three-dimensional space onto a plane of image pixels. If you connect the camera focal point and the projected point, a projection line comes out, and all three-dimensional points on the projection line are projected to the same point. This projection relationship corresponds to the concept of homogeneous coordinates, which expresses (x,y) as (wx, wy, w) for an arbitrary non-zero constant w, ignoring scale.

3차원 공간상의 제1 공간 좌표 및 제2 공간 좌표에서 정규화영상 좌표로의 변환은 [수학식 5]와 같이 수행될 수 있다. 여기서, 초점거리(f)는 1에 해당된다.The conversion from the first spatial coordinates and the second spatial coordinates in the 3D space to the normalized image coordinates may be performed as in [Equation 5]. Here, the focal length f corresponds to 1.

Figure 112021042003882-pat00008
Figure 112021042003882-pat00008

[수학식 5]를 이용하여 제1 공간 좌표 및 제2 공간 좌표가 변환된 제1 정규화영상 좌표 및 제2 정규화영상 좌표는 [수학식 6]과 같이 정의될 수 있다. The first normalized image coordinates and the second normalized image coordinates obtained by transforming the first spatial coordinates and the second spatial coordinates using [Equation 5] may be defined as in [Equation 6].

Figure 112021042003882-pat00009
Figure 112021042003882-pat00009

유도 비행체 계측장치(300)는 정규화영상 좌표를 왜곡된 픽셀 좌표로 변환한다. The guided vehicle measuring device 300 converts normalized image coordinates into distorted pixel coordinates.

유도 비행체 계측장치(300)는 제1 정규화영상 좌표 및 제2 정규화영상 좌표를 왜곡된 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표로 변환한다(S460).The guided vehicle measuring device 300 converts the first normalized image coordinates and the second normalized image coordinates into distorted first distorted pixel coordinates and second distorted pixel coordinates (S460).

정규화영상 좌표는 카메라 파라미터 영향이 제거된 기하학적 좌표계이다. 카메라 내부 파라미터와 렌즈왜곡 파라미터는 카메라 보정을 통해 구할 수 있다. 카메라 보정은 사진계측/컴퓨터비전 분야에서 일반적으로 다루어지고 목적에 따라 다양한 응용기술 및 이론이 존재하므로 여기서는 구체적인 설명은 생략한다. 제시된 카메라 왜곡에 대한 수학적 모델도 반드시 이에 한정되는 것은 아니며, 다양한 모델로 변경 가능하다. The normalized image coordinate is a geometric coordinate system in which the effects of camera parameters are removed. Camera internal parameters and lens distortion parameters can be obtained through camera calibration. Camera calibration is generally dealt with in the field of photometry/computer vision, and various application technologies and theories exist depending on the purpose, so a detailed description is omitted here. The presented mathematical model for camera distortion is not necessarily limited thereto, and can be changed to various models.

유도 비행체 계측장치(300)는 [수학식 7]과 같이 왜곡된 정규화영상 좌표를 산출한다. The guided vehicle measuring device 300 calculates distorted normalized image coordinates as shown in [Equation 7].

Figure 112021042003882-pat00010
Figure 112021042003882-pat00010

이후, 유도 비행체 계측장치(300)는 [수학식 8]을 이용하여 왜곡된 정규화영상 좌표

Figure 112021042003882-pat00011
를 픽셀좌표로 변환하여 왜곡된 왜곡 픽셀좌표
Figure 112021042003882-pat00012
를 계산한다. Thereafter, the guided vehicle measuring device 300 uses [Equation 8] to distort the normalized image coordinates.
Figure 112021042003882-pat00011
Distorted pixel coordinates by converting to pixel coordinates
Figure 112021042003882-pat00012
Calculate

Figure 112021042003882-pat00013
Figure 112021042003882-pat00013

유도 비행체 계측장치(300)는 [수학식 8]을 이용하여 제1 시점(t1)에서의 진입점 좌표를 대체한 제1 왜곡 픽셀좌표

Figure 112021042003882-pat00014
와 제2 시점(t2)에서의 탄착점 좌표를 대체한 제2 왜곡 픽셀좌표
Figure 112021042003882-pat00015
를 추출한다. 여기서,
Figure 112021042003882-pat00016
,
Figure 112021042003882-pat00017
로 정의한다.The guided vehicle measuring device 300 uses [Equation 8] to obtain the first distorted pixel coordinates replacing the coordinates of the entry point at the first time point t1.
Figure 112021042003882-pat00014
and second distortion pixel coordinates replacing the coordinates of the impact point at the second time point t2
Figure 112021042003882-pat00015
extract here,
Figure 112021042003882-pat00016
,
Figure 112021042003882-pat00017
is defined as

이후, 유도 비행체 계측장치(300)는 변환된 왜곡 픽셀좌표를 기반으로 제2 경사각(θest)을 계산한다(S470).Thereafter, the guided vehicle measuring device 300 calculates a second inclination angle θ est based on the converted distortion pixel coordinates (S470).

유도 비행체 계측장치(300)는 변환된 왜곡 픽셀좌표에서 제1 시점(t1)에서의 진입점 좌표를 대체한 제1 왜곡 픽셀좌표

Figure 112021042003882-pat00018
와 제2 시점(t2)에서의 탄착점 좌표를 대체한 제2 왜곡 픽셀좌표
Figure 112021042003882-pat00019
를 이용하여 제2 경사각(θest)을 계산한다. 여기서, 제2 경사각(θest)은 2 차원 영상좌표에서 지면의 수평선에 대해 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 연결한 벡터가 이루는 각을 의미하며, 항상 양의 값을 가진다. The guided vehicle measuring device 300 obtains the first distorted pixel coordinates by replacing the coordinates of the entry point at the first time point t1 in the converted distorted pixel coordinates.
Figure 112021042003882-pat00018
and second distortion pixel coordinates replacing the coordinates of the impact point at the second time point t2
Figure 112021042003882-pat00019
Calculate the second inclination angle (θ est ) using Here, the second inclination angle θ est means an angle formed by a vector connecting the first and second distorted pixel coordinates with respect to the horizontal line of the ground in the 2D image coordinates, and always has a positive value.

유도 비행체 계측장치(300)는 [수학식 9]를 이용하여 제2 경사각(θest)을 산출한다. The guided vehicle measuring device 300 calculates the second inclination angle θ est using [Equation 9].

Figure 112021042003882-pat00020
Figure 112021042003882-pat00020

est: 제2 경사각,

Figure 112021042003882-pat00021
: 제1 왜곡 픽셀좌표의 x 좌표,
Figure 112021042003882-pat00022
: 제1 왜곡 픽셀좌표의 y 좌표,
Figure 112021042003882-pat00023
: 제2 왜곡 픽셀좌표의 x 좌표,
Figure 112021042003882-pat00024
: 제2 왜곡 픽셀좌표의 y 좌표,
Figure 112021042003882-pat00025
:
Figure 112021042003882-pat00026
,
Figure 112021042003882-pat00027
:
Figure 112021042003882-pat00028
)(θ est : second inclination angle,
Figure 112021042003882-pat00021
: x coordinate of the first distortion pixel coordinate,
Figure 112021042003882-pat00022
: y coordinate of the first distortion pixel coordinate,
Figure 112021042003882-pat00023
: x coordinate of the second distortion pixel coordinate,
Figure 112021042003882-pat00024
: y coordinate of the second distortion pixel coordinate,
Figure 112021042003882-pat00025
:
Figure 112021042003882-pat00026
,
Figure 112021042003882-pat00027
:
Figure 112021042003882-pat00028
)

유도 비행체 계측장치(300)는 제1 경사각 및 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다(S480, S482, S490). 유도 비행체 계측장치(300)는 최적의 최종 진입각 및 최종 탄착각을 산출하기 위하여 목적함수를 이용하며, 목적함수를 통한 반복 계산을 수행한다. The guided vehicle measuring device 300 generates impact information including a final approach angle and a final impact angle using the first inclination angle and the second inclination angle (S480, S482, and S490). The guided vehicle measuring device 300 uses an objective function to calculate the optimal final entry angle and final impact angle, and performs iterative calculations through the objective function.

유도 비행체 계측장치(300)는 탄착 영상에서 산출된 제1 경사각(θm)과 기 설정된 초기 진입값 및 초기 탄착각을 통해 추정된 제2 경사각(θest)의 잔차 제곱을 최소화하는 목적함수를 이용하여 최종 진입각 및 최종 탄착각을 산출한다. 목적함수는 다양한 방법으로 정의가 가능하며 최적값을 계산하기 위한 알고리듬은 반드시 이에 한정되는 것은 아니며, 다양한 형태로 변형 가능하다.The guided vehicle measuring device 300 is an objective function that minimizes the residual square of the first inclination angle (θ m ) calculated from the impact image and the second inclination angle (θ est ) estimated through the preset initial entry value and the initial impact angle. to calculate the final entry angle and final impact angle. The objective function can be defined in various ways, and the algorithm for calculating the optimal value is not necessarily limited thereto and can be modified in various forms.

유도 비행체 계측장치(300)는 목적함수의 출력값이 목적함수가 설정한 허용오차(ε)보다 큰 경우 진입각과 탄착각을 업데이트한다. 유도 비행체 계측장치(300)는 목적함수의 출력값이 허용오차(ε) 미만이 될 때까지 진입각과 탄착각을 반복 계산한다. The guided flight vehicle measuring device 300 updates the approach angle and impact angle when the output value of the objective function is greater than the tolerance (ε) set by the objective function. The guided vehicle measuring device 300 repeatedly calculates the entry angle and the impact angle until the output value of the objective function is less than the allowable error (ε).

유도 비행체 계측장치(300)는 [수학식 10]을 이용하여 목적함수의 출력값을 산출한다. 여기서, k는 카메라 개수이며 w는 가중치를 의미한다. The guided vehicle measuring device 300 calculates the output value of the objective function using [Equation 10]. Here, k is the number of cameras and w is the weight.

Figure 112021042003882-pat00029
Figure 112021042003882-pat00029

유도 비행체 계측장치(300)는 허용오차(ε) 기준을 만족하는 목적함수의 진입각 및 탄착각을 최종 진입각 및 최종 탄착각으로 결정한다. The guided vehicle measuring device 300 determines the final approach angle and the final impact angle of the objective function that satisfies the tolerance (ε) criterion.

도 3 및 도 4에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 3 및 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 3 및 도 4는 시계열적인 순서로 한정되는 것은 아니다.In Figures 3 and 4, each step is described as sequentially executed, but is not necessarily limited thereto. In other words, since it will be applicable by changing and executing the steps described in FIGS. 3 and 4 or executing one or more steps in parallel, FIGS. 3 and 4 are not limited to a time-series order.

도 3 및 도 4에 기재된 본 실시예에 따른 유도 비행체의 탄착 정보 계측 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The method for measuring impact information of the guided flight vehicle according to the present embodiment described in FIGS. 3 and 4 may be implemented as an application (or program) and recorded on a recording medium readable by a terminal device (or computer). The application (or program) for implementing the method of measuring impact information of the guided flight vehicle according to this embodiment is recorded and the recording medium readable by the terminal device (or computer) stores all kinds of data that can be read by the computing system. It includes a recording device or medium of

도 5는 본 발명의 실시예에 따른 진입 시점 및 탄착 시점의 탄착 영상을 나타낸 예시도이다.5 is an exemplary view showing images of an impact at an entry point and a point of impact according to an embodiment of the present invention.

도 5는 유도 비행체 계측 시스템(100)에 포함된 복수의 카메라(C1, C2, C3) 각각으로부터 획득한 2차원 탄착 영상을 나타낸다. FIG. 5 shows two-dimensional impact images obtained from each of the plurality of cameras C1, C2, and C3 included in the guided vehicle measurement system 100.

도 5에서는 탄착 영상에서 보여지는 진입 시점(t1)에서의 유도 비행체의 진입 위치를 Pt1으로 나타내고, 탄착 영상에서 보여지는 탄착 시점(t2)에서의 유도 비행체의 탄착 위치를 Pt2로 나타낸다. In FIG. 5, the entry position of the guided vehicle at the entry time point t1 shown in the impact image is represented by P t1 , and the impact position of the guided vehicle at the impact time point t2 shown in the impact image is indicated by P t2 .

도 6은 본 발명의 실시예에 따른 유도 비행체가 탄착되는 경사각을 나타낸 예시도이다.6 is an exemplary diagram showing an inclination angle at which a guided flight vehicle lands according to an embodiment of the present invention.

유도 비행체 계측장치(300)에서 탄착 영상을 기반으로 산출된 제1 경사각을 나타낸다. The first inclination angle calculated based on the image of the impact in the guided vehicle measuring device 300 is shown.

유도 비행체 계측장치(300)는 탄착 영상에서 지면의 수평선에 대해 유도 비행체의 진입 위치(Pt1)과 탄착 위치를 (Pt2)를 연결한 벡터가 이루는 제1 경사각을 산출한다. The guided vehicle measuring device 300 calculates a first inclination angle formed by a vector connecting the entry position (P t1 ) of the guided vehicle and the impact position (P t2 ) with respect to the horizontal line of the ground in the image of the impact.

도 6을 참고하면, 유도 비행체 계측장치(300)는 복수의 카메라(C1, C2, C3) 각각으로부터 획득한 탄착 영상 각각에 대한 제1 경사각을 나타낸다. Referring to FIG. 6 , the guided vehicle measuring device 300 indicates a first inclination angle for each of the impact images obtained from each of the plurality of cameras C1 , C2 , and C3 .

도 6에서는 제1 카메라(C1)의 탄착 영상으로 산출된 제1 경사각(θ1), 제2 카메라(C2)의 탄착 영상으로 산출된 제1 경사각(θ2), 제3 카메라(C3)의 탄착 영상으로 산출된 제1 경사각(θ3)을 나타낸다. In FIG. 6 , the first inclination angle θ 1 calculated from the impact image of the first camera C1, the first inclination angle θ 2 calculated from the impact image of the second camera C2, and the third camera C3 It shows the first inclination angle (θ 3 ) calculated from the impact image.

도 7은 본 발명의 실시예에 따른 유도 비행체 계측을 위한 좌표계 간의 관계를 설명하기 위한 도면이다.7 is a diagram for explaining a relationship between coordinate systems for measuring a guided vehicle according to an embodiment of the present invention.

본 발명의 실시예에 따른 유도 비행체 계측 시스템(100)에서 사용되는 좌표계 및 그들 간의 관계를 나타낸다. Coordinate systems used in the guided vehicle measurement system 100 according to an embodiment of the present invention and relationships therebetween are shown.

표적 좌표계(X, Y, Z)는 표적중심을 원점으로 하고 진북방향을 X축, 동쪽을 Y축, 지면을 Z축으로 정의하는 NED(North-East-Down) 좌표계로 정의한다. The target coordinate system (X, Y, Z) is defined as the North-East-Down (NED) coordinate system with the center of the target as the origin and the X-axis as the true north direction, the Y-axis as the east, and the Z-axis as the ground.

탄착 좌표계(Xi, Yi, Zi)는 탄착점을 원점으로하며 표적 좌표계에서 진입각, 탄착각만큼 회전 이동한 좌표계이다. The impact coordinate system (X i , Y i , Z i ) is a coordinate system rotated by the entry and impact angles in the target coordinate system with the impact point as the origin.

카메라 좌표계(Xc, Yc, Zc)는 카메라 렌즈(초점)의 중심을 원점으로 하고 정면 광학축 방향을 Z축, 오른쪽방향을 X, 아래방향을 Y축으로 정의한 좌표계이다. The camera coordinate system (X c , Y c , Z c ) is a coordinate system in which the center of the camera lens (focus) is the origin, and the Z-axis is the front optical axis direction, the X-axis is the right direction, and the Y-axis is the downward direction.

픽셀영상 좌표계(Xp, Yp)는 획득한 영상 좌표계로 영상의 왼쪽상단 끝점을 원점으로 오른쪽방향을 X축, 아래방향을 Y축으로 정의한 평면상의 픽셀단위 좌표계이며 공간상의 3차원 점이 투영되며 카메라 원점으로부터 초점거리만큼 떨어져 있다. The pixel image coordinate system (X p , Y p ) is an acquired image coordinate system. It is a pixel unit coordinate system on a plane defined by the origin at the top left end point of the image, the right direction as the X axis, and the down direction as the Y axis. A three-dimensional point in space is projected. The distance from the camera origin is equal to the focal length.

정규화영상 좌표계(u, v)는 카메라 초점과의 거리가 1인 가상의 평면으로 좌표계의 단위가 정규화되어 카메라 내부 파라미터의 영향을 제거한 좌표계이다. 정규화영상좌표계의 원점은 평면의 중심이며 카메라 광학축(Zc)과의 교점이며 오른쪽 방향을 u축, 아래방향을 v축으로 정의한다.The normalized image coordinate system (u, v) is an imaginary plane with a distance of 1 from the camera focal point, and the unit of the coordinate system is normalized to remove the influence of the camera's internal parameters. The origin of the normalized image coordinate system is the center of the plane and the point of intersection with the camera optical axis (Z c ), and the right direction is defined as the u-axis and the downward direction as the v-axis.

본 실시예에 따른 유도 비행체 계측장치(300)는 표적 좌표계, 탄착 좌표계, 픽셀영상 좌표계, 정규화영상 좌표계, 카메라 좌표계 등의 좌표계 간 변환을 통해 제1 경사각 및 제2 경사각을 산출하여 유도 비행체의 최종 진입각 및 최종 탄착각을 산출하여 탄착 정보를 생성한다. The guided vehicle measuring device 300 according to the present embodiment calculates the first inclination angle and the second inclination angle through conversion between coordinate systems such as a target coordinate system, an impact coordinate system, a pixel image coordinate system, a normalized image coordinate system, and a camera coordinate system, thereby determining the final shape of the guided vehicle. The entry angle and the final impact angle are calculated to generate impact information.

이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is only illustrative of the technical idea of the embodiment of the present invention, and those skilled in the art to which the embodiment of the present invention belongs can make various modifications and modifications within the scope not departing from the essential characteristics of the embodiment of the present invention. transformation will be possible. Therefore, the embodiments of the present invention are not intended to limit the technical idea of the embodiment of the present invention, but to explain, and the scope of the technical idea of the embodiment of the present invention is not limited by these examples. The protection scope of the embodiments of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the embodiments of the present invention.

100: 유도 비행체 계측 시스템
200: 영상 촬영장치 300: 유도 비행체 계측장치
310: 초기 좌표 측정부 320: 탄착 영상 획득부
330: 픽셀 좌표 추출부 340: 계측 처리부
100: guided flight instrument system
200: image capture device 300: guided air vehicle measuring device
310: initial coordinate measurement unit 320: impact image acquisition unit
330: pixel coordinate extraction unit 340: measurement processing unit

Claims (13)

유도 비행체 계측장치에서 탄착 정보를 계측하는 방법에 있어서,
표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계;
유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계;
상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및
상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계
를 포함하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
A method for measuring impact information in a guided flight vehicle measuring device,
an initial coordinate measurement step of measuring the coordinates of a target and the coordinates of an image capture device installed at a preset distance and angle based on the center of the target;
When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device;
a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and
A first inclination angle is calculated based on the image pixel coordinates, a second inclination angle is calculated based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, and the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final approach angle and a final impact angle using
A method for measuring impact information of a guided flight vehicle, comprising:
제1항에 있어서,
상기 픽셀 좌표 추출 단계는,
상기 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출하되,
상기 제1 영상 픽셀좌표는 상기 유도 비행체의 진입 시점에서 추출된 좌표이고, 상기 제2 영상 픽셀좌표는 상기 유도 비행체의 탄착 시점에서 추출된 좌표인 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 1,
The pixel coordinate extraction step,
Extracting pixel coordinates of a first image at a first viewpoint and pixel coordinates of a second image at a second viewpoint within the image of the impact,
The first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle.
제2항에 있어서,
상기 계측 처리 단계는,
표적 좌표계의 변환을 수행하며, 상기 제1 영상 픽셀좌표 및 상기 제2 영상 픽셀좌표를 이용하여 상기 제1 경사각을 계산하는 제1 경사각 계산 단계;
탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출하고, 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 상기 제2 경사각을 계산하는 제2 경사각 계산 단계; 및
상기 제1 경사각 및 상기 제2 경사각 기반의 목적함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 탄착 정보 계측 처리 단계
를 포함하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 2,
In the measurement processing step,
a first inclination angle calculation step of converting a target coordinate system and calculating the first inclination angle using the first image pixel coordinates and the second image pixel coordinates;
Converting the impact coordinate system, calculating first spatial coordinates and second spatial coordinates based on the preset initial entry value and the initial impact angle, and converting the first spatial coordinates and the second spatial coordinates into normalized image coordinates a second inclination angle calculating step of calculating the second inclination angle by calculating first and second distortion pixel coordinates after converting to ?; and
An impact information measurement and processing step of generating the impact information including the final approach angle and the final impact angle by using an objective function based on the first inclination angle and the second inclination angle
A method for measuring impact information of a guided flight vehicle, comprising:
제3항에 있어서,
상기 제1 경사각 계산 단계는,
상기 탄착 영상에서 지면의 수평선에 대해 상기 제1 영상 픽셀좌표의 진입점과 상기 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 상기 제1 경사각을
Figure 112021042003882-pat00030

m: 제1 경사각, xp1: 제1 영상 픽셀좌표의 x 좌표, yp1: 제1 영상 픽셀좌표의 y 좌표, xp2: 제2 영상 픽셀좌표의 x 좌표, yp2: 제2 영상 픽셀좌표의 y 좌표, y'p1: - yp1, y'p2: - yp2)
를 이용하여 계산하되, 상기 제1 경사각은 항상 양의 값인 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 3,
In the first inclination angle calculation step,
The first inclination angle formed by a vector connecting the entry point of the pixel coordinates of the first image and the point of impact of the pixel coordinates of the second image with respect to the horizontal line of the ground in the impact image
Figure 112021042003882-pat00030

m : 1st tilt angle, x p1 : x coordinate of pixel coordinates of 1st image, y p1 : y coordinate of pixel coordinates of 1st image, x p2 : x coordinate of pixel coordinates of 2nd image, y p2 : 2nd image y coordinate in pixel coordinates, y' p1 : - y p1 , y' p2 : - y p2 )
Calculated using , wherein the first inclination angle is always a positive value.
제3항에 있어서,
상기 제2 경사각 계산 단계는,
상기 초기 진입값 및 상기 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 추정하고,
상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 상기 제1 시점의 좌표를 대체하기 위한 상기 제1 왜곡 픽셀좌표 및 상기 제2 시점의 좌표를 대체하기 위한 상기 제2 왜곡 픽셀좌표를 산출하되,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 이용하여 상기 제2 경사각을 계산하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 3,
The second inclination angle calculation step,
Estimating the first spatial coordinates and the second spatial coordinates obtained by converting the impact coordinate system into a target coordinate system using the initial entry value and the initial impact angle;
After converting the first spatial coordinates and the second spatial coordinates based on the normalized image coordinate system, the first distorted pixel coordinates and the coordinates of the second viewpoint to replace the coordinates of the first viewpoint through pixel image coordinate system conversion Calculate the second distortion pixel coordinates for replacement,
and calculating the second inclination angle using the first distorted pixel coordinates and the second distorted pixel coordinates.
제5항에 있어서,
상기 제2 경사각 계산 단계는,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 기반으로 상기 제2 경사각을
Figure 112021042003882-pat00031

est: 제2 경사각,
Figure 112021042003882-pat00032
: 제1 왜곡 픽셀좌표의 x 좌표,
Figure 112021042003882-pat00033
: 제1 왜곡 픽셀좌표의 y 좌표,
Figure 112021042003882-pat00034
: 제2 왜곡 픽셀좌표의 x 좌표,
Figure 112021042003882-pat00035
: 제2 왜곡 픽셀좌표의 y 좌표,
Figure 112021042003882-pat00036
:
Figure 112021042003882-pat00037
,
Figure 112021042003882-pat00038
:
Figure 112021042003882-pat00039
)
를 이용하여 계산하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 5,
The second inclination angle calculation step,
The second inclination angle is determined based on the first distortion pixel coordinate and the second distortion pixel coordinate.
Figure 112021042003882-pat00031

est : second inclination angle,
Figure 112021042003882-pat00032
: x coordinate of the first distortion pixel coordinate,
Figure 112021042003882-pat00033
: y coordinate of the first distortion pixel coordinate,
Figure 112021042003882-pat00034
: x coordinate of the second distortion pixel coordinate,
Figure 112021042003882-pat00035
: y coordinate of the second distortion pixel coordinate,
Figure 112021042003882-pat00036
:
Figure 112021042003882-pat00037
,
Figure 112021042003882-pat00038
:
Figure 112021042003882-pat00039
)
A method for measuring impact information of a guided flight vehicle, characterized in that for calculating using
제3항에 있어서,
상기 탄착 정보 계측 처리 단계는,
상기 제1 경사각과 상기 제2 경사각의 잔차 제곱을 최소화하는 목적 함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 3,
The impact information measurement processing step,
Wherein the impact information including the final approach angle and the final impact angle is generated using an objective function that minimizes the square of the residual of the first inclination angle and the second inclination angle.
제7항에 있어서,
상기 탄착 정보 계측 처리 단계는,
상기 목적 함수의 산출값이 기 설정된 허용오차 이상인 경우, 상기 초기 진입값 및 상기 초기 탄착각을 업데이트하여 신규 제2 경사각을 산출하는 동작을 반복하고, 상기 제1 경사각 및 상기 신규 제2 경사각의 잔차 제곱을 최소화하는 상기 최종 진입각 및 상기 최종 탄착각을 산출하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.
According to claim 7,
The impact information measurement processing step,
If the calculated value of the objective function is greater than or equal to the preset tolerance, an operation of updating the initial entry value and the initial impact angle to calculate a new second inclination angle is repeated, and the residuals of the first inclination angle and the new second inclination angle are repeated. The method of measuring impact information of a guided vehicle, characterized in that for calculating the final approach angle and the final impact angle that minimize the square.
유도 비행체의 탄착 정보를 계측하는 장치에 있어서,
표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정부;
유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득부;
상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출부; 및
상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리부
를 포함하는 것을 특징으로 하는 유도 비행체 계측장치.
In the device for measuring the impact information of the guided flight vehicle,
an initial coordinate measurement unit for measuring coordinates of a target and coordinates of an image capture device installed at a preset distance and angle based on the center of the target;
When the guided vehicle lands on the ground, an impact image acquisition unit for acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device;
a pixel coordinate extraction unit for extracting image pixel coordinates of the entry point and the point of impact of the guided vehicle based on the image of the impact; and
A first inclination angle is calculated based on the image pixel coordinates, a second inclination angle is calculated based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, and the first inclination angle and the second inclination angle are calculated. Measurement processing unit for generating impact information including the final approach angle and the final impact angle using
A guided flight instrument comprising a.
제9항에 있어서,
상기 픽셀 좌표 추출부는,
상기 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출하되,
상기 제1 영상 픽셀좌표는 상기 유도 비행체의 진입 시점에서 추출된 좌표이고, 상기 제2 영상 픽셀좌표는 상기 유도 비행체의 탄착 시점에서 추출된 좌표인 것을 특징으로 하는 유도 비행체 계측장치.
According to claim 9,
The pixel coordinate extraction unit,
Extracting pixel coordinates of a first image at a first viewpoint and pixel coordinates of a second image at a second viewpoint within the image of the impact,
The first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle.
제10항에 있어서,
상기 계측 처리부는,
표적 좌표계의 변환을 수행하며, 상기 제1 영상 픽셀좌표 및 상기 제2 영상 픽셀좌표를 이용하여 상기 제1 경사각을 계산하고,
탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출하고, 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 상기 제2 경사각을 계산하되,
상기 제1 경사각 및 상기 제2 경사각 기반의 목적함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 것을 특징으로 하는 유도 비행체 계측장치.
According to claim 10,
The measurement processing unit,
Converting a target coordinate system and calculating the first inclination angle using the pixel coordinates of the first image and the pixel coordinates of the second image;
Transforming the impact coordinate system, calculating first spatial coordinates and second spatial coordinates based on the preset initial entry value and the initial impact angle, and converting the first spatial coordinates and the second spatial coordinates into normalized image coordinates After converting to , the second tilt angle is calculated by calculating the first distortion pixel coordinate and the second distortion pixel coordinate,
and generating the impact information including the final approach angle and the final impact angle by using an objective function based on the first inclination angle and the second inclination angle.
제11항에 있어서,
상기 계측 처리부는,
상기 탄착 영상에서 지면의 수평선에 대해 상기 제1 영상 픽셀좌표의 진입점과 상기 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 상기 제1 경사각을 계산하되, 상기 제1 경사각은 항상 양의 값인 것을 특징으로 하는 유도 비행체 계측장치.
According to claim 11,
The measurement processing unit,
Calculate the first inclination angle formed by a vector connecting the entry point of the pixel coordinates of the first image and the point of impact of the pixel coordinates of the second image with respect to the horizontal line of the ground in the impact image, wherein the first inclination angle is always a positive value A guided flight instrument, characterized in that.
제11항에 있어서,
상기 계측 처리부는,
상기 초기 진입값 및 상기 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 추정하고,
상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 상기 제1 시점의 좌표를 대체하기 위한 상기 제1 왜곡 픽셀좌표 및 상기 제2 시점의 좌표를 대체하기 위한 상기 제2 왜곡 픽셀좌표를 산출하되,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 이용하여 상기 제2 경사각을 계산하는 것을 특징으로 하는 유도 비행체 계측장치.
According to claim 11,
The measurement processing unit,
Estimating the first spatial coordinates and the second spatial coordinates obtained by converting the impact coordinate system into a target coordinate system using the initial entry value and the initial impact angle;
After converting the first spatial coordinates and the second spatial coordinates based on the normalized image coordinate system, the first distorted pixel coordinates and the coordinates of the second viewpoint to replace the coordinates of the first viewpoint through pixel image coordinate system conversion Calculate the second distortion pixel coordinates for replacement,
and calculating the second inclination angle using the first distorted pixel coordinates and the second distorted pixel coordinates.
KR1020210046733A 2021-04-09 2021-04-09 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle KR102494973B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210046733A KR102494973B1 (en) 2021-04-09 2021-04-09 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210046733A KR102494973B1 (en) 2021-04-09 2021-04-09 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Publications (2)

Publication Number Publication Date
KR20220140342A KR20220140342A (en) 2022-10-18
KR102494973B1 true KR102494973B1 (en) 2023-02-06

Family

ID=83803886

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210046733A KR102494973B1 (en) 2021-04-09 2021-04-09 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Country Status (1)

Country Link
KR (1) KR102494973B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304499A (en) 1999-04-22 2000-11-02 Mitsubishi Electric Corp Image processor and processing method for launching vehicle
KR101992417B1 (en) 2018-07-06 2019-06-24 국방과학연구소 Apparatus and method for measuring airburst height of weapon system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070111418A (en) * 2007-10-04 2007-11-21 희 한 Remote gunshot system to observed target
KR101900563B1 (en) * 2016-10-07 2018-11-05 주식회사 한화 Method for target data acquisition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304499A (en) 1999-04-22 2000-11-02 Mitsubishi Electric Corp Image processor and processing method for launching vehicle
KR101992417B1 (en) 2018-07-06 2019-06-24 국방과학연구소 Apparatus and method for measuring airburst height of weapon system

Also Published As

Publication number Publication date
KR20220140342A (en) 2022-10-18

Similar Documents

Publication Publication Date Title
US10885328B2 (en) Determination of position from images and associated camera positions
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
EP3008489B1 (en) Mobile imaging platform calibration
CN112444242B (en) Pose optimization method and device
JP6877293B2 (en) Location information recording method and equipment
CN110617821A (en) Positioning method, positioning device and storage medium
CN105716625B (en) Method and system for automatically detecting misalignment of monitoring sensors of an aircraft
KR102239562B1 (en) Fusion system between airborne and terrestrial observation data
JP2022042146A (en) Data processor, data processing method, and data processing program
CN115423863B (en) Camera pose estimation method and device and computer readable storage medium
WO2012134237A2 (en) System and method for estimating the attitude of a camera having captured an image
CN114549595A (en) Data processing method and device, electronic equipment and storage medium
KR20230003803A (en) Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system
KR102494973B1 (en) Method and Apparatus for Measuring Impact Information of Guided Air Vehicle
CN113052974A (en) Method and device for reconstructing three-dimensional surface of object
CN110989645A (en) Target space attitude processing method based on compound eye imaging principle
CN115950435A (en) Real-time positioning method for unmanned aerial vehicle inspection image
JP5920807B2 (en) Optical axis direction identification method, optical axis direction identification device, and optical axis direction identification program
KR102127135B1 (en) System and method for facilities precise inspection
KR20150096127A (en) Method and apparatus for calculating location of points captured in image
CN111161357B (en) Information processing method and device, augmented reality device and readable storage medium
JP6861592B2 (en) Data thinning device, surveying device, surveying system and data thinning method
JP7075090B1 (en) Information processing system and information processing method
JP7363225B2 (en) Measuring device, measuring system, measuring method and program
CN116664698B (en) Automatic calibration method for vehicle-mounted binocular camera and GNSS/IMU

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant