KR20160046352A - System for calculating point of impact and method of thereof - Google Patents
System for calculating point of impact and method of thereof Download PDFInfo
- Publication number
- KR20160046352A KR20160046352A KR1020140141601A KR20140141601A KR20160046352A KR 20160046352 A KR20160046352 A KR 20160046352A KR 1020140141601 A KR1020140141601 A KR 1020140141601A KR 20140141601 A KR20140141601 A KR 20140141601A KR 20160046352 A KR20160046352 A KR 20160046352A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- coordinate
- impact point
- coordinates
- camera
- Prior art date
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J5/00—Target indicating systems; Target-hit or score detecting systems
- F41J5/10—Cinematographic hit-indicating systems
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/22—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length at, near, or formed by the object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
본 발명은 탄착점 위치 산출 시스템 및 방법에 관한 것 입니다. 보다 상세하게 본 발명은 폭탄의 탄착점의 위치를 산출하는 시스템 및 방법에 관한 것이다.The present invention relates to an impact point location calculation system and method. More particularly, the present invention relates to a system and method for calculating the location of an impact point of a bomb.
전투기 조정사의 폭탄 발사 능력 또는 포탄 사격 능력을 평가하기 위해서는 폭탄 또는 포탄이 떨어진 곳의 위치 즉 탄착점의 위치를 정확하게 산출하는 것이 중요하다. In order to evaluate the ability of a fighter pilot to launch a bomb or to fire a shot, it is important to accurately calculate the location of the bomb or shell, ie, the location of the impact point.
종래에는 사람이 직접 탄착점의 위치를 산출하여, 산출 결과가 부정확하고, 산출하기 까지 오래 걸렸다. Conventionally, a person directly calculates the location of the impact point, and the calculation result is inaccurate and takes a long time to be calculated.
또한 사람이 직접 탄착점의 위치를 산출하여야 하기 때문에 불편하였다.Also, it was inconvenient because a person had to directly calculate the location of the impact point.
따라서 근래에는 탄착점의 위치를 빠르고, 정확하게 산출하는 시스템 및 방법이 요구 되고 있는 실정이다.Therefore, a system and a method for quickly and precisely calculating the position of the impact point have been required in recent years.
본 발명이 해결하고자 하는 과제는 빠르고 정확하게 탄착점의 위치를 산출하는 시스템 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a system and method for quickly and accurately calculating the location of an impact point.
본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라; 상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버; 상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함한다.The impact point location calculation system according to an embodiment of the present invention includes first and second cameras that respectively acquire images of the vicinity of an impact point; A first server for generating first image coordinates of an impact point on the image acquired by the first camera; A second server for generating second image coordinates of an impact point on the image acquired by the second camera; And a position calculating device for calculating a position of the impact point based on the first image coordinate and the second image coordinate.
상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.The position calculating device may calculate the position of the impact point by triangulating a point projected from the first camera to the first image coordinate and a point projected from the second camera to the second image coordinate.
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.Wherein the first image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the first camera to the impact point, and the second image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the second camera to the impact point Lt; / RTI >
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.The position calculation device can display the calculated position of the impact point on the evaluation table and output it.
상기 위치 산출 장치는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출할 수 있다.The position calculation device may calculate the first image coordinate through the first transformation matrix to the first real coordinate and calculate the second image coordinate to the second real coordinate through the second transformation matrix.
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters and the second transformation matrix is calculated using five reference points And the image coordinates of the five reference points in the image of the second camera as parameters.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.When the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, the position calculating device can determine that the operation is abnormal.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.The position calculating device may determine that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.
The position calculation device can calculate the position of the impact point only when the distance between the first actual coordinate and the second real coordinate is less than a predetermined value.
본 발명의 실시예에 따른 탄착점 위치 산출 방법은 제1, 2 카메라 각각에 의하여 탄착점에 대한 각각의 영상을 획득하는 단계; 제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및 위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for calculating an impact point position, comprising: obtaining respective images of an impact point by first and second cameras; Each of the first server and the second server generating respective first image coordinates and second image coordinates for an impact point in each image acquired by the first and second cameras; And the position calculating device calculates the position of the impact point based on the first image coordinate and the second image coordinate.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.The calculating of the position of the impact point may include calculating a position of the impact point by triangulating the point projected from the first camera to the first image coordinate and the point projected from the second camera to the second image coordinate .
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.Wherein the first image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the first camera to the impact point, and the second image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the second camera to the impact point Lt; / RTI >
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함할 수 있다.The position calculation device may further include a step of displaying the calculated position of the impact point on the evaluation table and outputting the result.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함할 수 있다.The step of calculating the position of the impact point may include calculating the first image coordinate as a first real coordinate through a first transformation matrix and calculating the second image coordinate as a second real coordinate through a second transformation matrix .
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters and the second transformation matrix is calculated using five reference points And the image coordinates of the five reference points in the image of the second camera as parameters.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.The step of calculating the position of the impact point may be determined as an abnormal operation when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.The step of calculating the position of the impact point may determine that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second real coordinate is a predetermined value or more have.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.The step of calculating the position of the impact point may calculate the position of the impact point only when the distance between the first actual coordinate and the second real coordinate is less than a predetermined value.
본 발명의 실시예에 따르면 하나의 탄착점으로부터 획득한 두 개의 실 좌표를 비교하여, 탄착점 위치 산출 장치의 오류를 판단할 수 있다.According to the embodiment of the present invention, an error of the impact point location calculation device can be determined by comparing two actual coordinates obtained from one impact point.
또한 복수의 카메라를 통한 복수의 이미지 좌표에 기초하여 탄착점 위치 산출 장치가 탄착점의 위치를 산출하기 때문에 정확하게 탄착점의 위치를 산출 할 수 있다.In addition, since the impact point position calculating device calculates the position of the impact point based on a plurality of image coordinates through a plurality of cameras, the position of the impact point can be accurately calculated.
도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.
도 2는 탄착점 및 기준점을 나타낸 도면이다.
도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.
도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.
도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.
도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.
도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.
도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.
도 9는 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다.1 is a block diagram of an impact point location calculation system according to an embodiment of the present invention.
2 is a view showing an impact point and a reference point.
FIG. 3 is a diagram showing flashing due to the impact of a night-time bomb.
4 is a view showing the generation of smoke due to the collision of the daytime bomb.
5 is a diagram for explaining image coordinates according to an embodiment of the present invention.
6 is a view showing an image obtained by a camera and by an angle of the camera.
7 is a block diagram of an impact point position calculating apparatus according to an embodiment of the present invention.
8 is a flowchart of an impact point location calculation method according to an embodiment of the present invention.
9 is a view showing an impact point displayed on an evaluation table according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as "including " an element, it is understood that it does not exclude other elements, but may include other elements, unless specifically stated otherwise.
또한 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Also, throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . When an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.
이제 본 발명의 실시 예에 따른 탄착점 위치 산출 장치 및 그 방법에 대하여 도면을 참고로 하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An impact point location calculation apparatus and method according to an embodiment of the present invention will now be described in detail with reference to the drawings.
도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.1 is a block diagram of an impact point location calculation system according to an embodiment of the present invention.
본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 복수의 카메라(100, 110), 복수의 서버(200, 210), 탄착점 위치 산출 장치(300)을 포함한다. 그러나 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 시스템이 구현될 수도 있다.The impact point location calculation system according to the embodiment of the present invention includes a plurality of
본 발명의 실시예에 따른 각각의 카메라(100, 110)는 탄착점(P) 주변의 영상을 획득하여 서버(200, 210)로 전송한다. 본 발명의 실시예에 따르면, 카메라(100, 110)가 서버(200, 210)로 보내는 영상의 범위는 기 설정되어 있을 수도 있다. Each of the
제1 카메라(100)는 제1 서버(200)로 탄착점(P) 주변의 영상을 전송한다. 제1 서버(200)는 제1 카메라(100)가 획득한 영상에 기초하여 탄착점(P)에 대한 제1 이미지 좌표를 생성한다.The
제2 카메라(110)는 제2 서버(210)로 탄착점(P) 주변의 영상을 전송한다. 제2 서버(210)는 제2 카메라(110)가 획득한 영상에 기초하여 탄착점(P)에 대한 제2 이미지 좌표를 생성한다.The
다음은 도 2 내지 도 6를 참조하여 각각의 카메라(100, 110)가 획득하는 이미지 좌표에 대하여 설명하겠다.Next, the image coordinates obtained by each of the
도 2는 탄착점 및 기준점을 나타낸 도면이다.2 is a view showing an impact point and a reference point.
본 발명의 실시예에 따르면 기준점(R1 내지 R5)은 탄착점(P) 주변의 특정 지점이다. 기준점(R1 내지 R4)은 중앙에 위치한 기준점인 중심점(R5, Mid-Point)으로부터 동일한 거리 위치한다. 본 발명의 실시예에 따른 기준점(R1 내지 R5)는 외부 입력을 통해 설정될 수도 있다. 또한 기준점(R1 내지 R5)는 기설정되어 있을 수도 있다.According to the embodiment of the present invention, the reference points (R1 to R5) are specific points around the impact point (P). The reference points R1 to R4 are located at the same distance from the center point (R5, Mid-Point) which is a reference point located at the center. The reference points (R1 to R5) according to the embodiment of the present invention may be set through an external input. The reference points R1 to R5 may be preset.
도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.FIG. 3 is a diagram showing flashing due to the impact of a night-time bomb.
도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.4 is a view showing the generation of smoke due to the collision of the daytime bomb.
야간시, 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 섬광의 위치를 탄착점으로 판단한다.At night, each of the
또한 주간시 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 연기의 하단부를 탄착점으로 판단한다.In addition, each of the
도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.5 is a diagram for explaining image coordinates according to an embodiment of the present invention.
본 발명의 실시예에 따른 각각의 서버(200, 210)는 각각의 카메라(100, 110)로부터 획득된 각각의 영상에서 탄착점의 좌표를 X, Y의 조합으로 산출할 수 있다. 여기서 X는 영상의 특정 지점에서의 탄착점까지의 가로 거리, Y는 영상의 특정 지점에서는 탄착점까지의 세로 거리 일 수 있다. Each of the
본 발명의 실시예에 따르면, 각각의 서버(200, 210)는 영상에서 최좌측 상단에서 기준점까지의 가로 픽셀 수를 X로, 세로 픽셀 수를 Y로 산출할 수도 있다.According to the embodiment of the present invention, each of the
도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.6 is a view showing an image obtained by a camera and by an angle of the camera.
같은 위치의 탄착점이라고 하더라도 이미지 좌표를 다를 수 있다. 카메라의 촬영 각도에 따라 획득되는 영상도 다르기 때문이다. 제1 카메라(100)와 제2 카메라(110)는 서로 다른 위치에 배치되기 때문에, 제1 카메라(100)의 획득 영상에 대한 제1 이미지 좌표와 제2 카메라(110)의 획득 영상에 대한 제2 이미지 좌표는 서로 다른 값을 갖는다.Even if it is an impact point at the same position, the image coordinates may be different. This is because the images obtained in accordance with the camera angle are also different. Since the
탄착점에 대한 하나의 이미지 좌표에 란삭(RANSAC) 알고리즘을 통해 획득된 행렬을 적용할 경우 탄착점의 실좌표가 획득 될 수 있다. When applying a matrix obtained by the RANSAC algorithm to one image coordinate for an impact point, the real coordinates of the impact point can be obtained.
그러나 하나의 이미지 좌표에 대하여 란삭 알고리즘을 이용하여 획득된 실좌표는 란삭 알고리즘이 이차원 평면을 가정하기 때문에 오차가 발생할 수 있다. However, the real coordinates obtained by using the LACS algorithm for one image coordinate may cause errors because the LACS algorithm assumes a two-dimensional plane.
또한 도 6에 도시된 것과 같이 카메라의 촬영 각도에 따라 획득되는 영상에도 차이가 발생하기 때문에 한대의 카메라에서 획득한 영상의 이미지 좌표만을 가지고 탄착점의 위치를 산출하는 것은 오차가 발생할 수 있다.Also, as shown in FIG. 6, there is also a difference in the images obtained according to the camera angle, so that it may be an error to calculate the location of the impact point using only the image coordinates of the image acquired by one camera.
본 발명은 이러한 오차의 발생을 줄이고, 정확한 탄착점의 위치를 산출하기 위하여 적어도 두 대의 카메라에서 획득한 영상을 이용한다. 본 명세서에서는 두 대의 카메라를 이용하고 있지만 본 발명은 이에 한정되지 않는다. 얼마든지 더 많은 카메라를 이용하는 경우에도 본 발명의 적용이 가능하다. The present invention utilizes images obtained from at least two cameras to reduce the occurrence of such errors and to calculate the position of an accurate impact point. Although two cameras are used in this specification, the present invention is not limited thereto. The present invention can be applied to any number of cameras.
탄착점 위치 판단 장치(300)는 제1, 2 이미지 좌표에 기초하여 탄착점(P)의 위치를 판단 한다. 탄착점 위치 판단 장치(300)의 동작에 대하여는 이하에서 상세하게 설명하겠다.The impact point
도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.7 is a block diagram of an impact point position calculating apparatus according to an embodiment of the present invention.
본 발명의 실시예에 따른 탄착점 위치 산출 장치(300)는 수신부(310), 제어부(320) 및 출력부(330)을 포함한다. 그러나 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 장치(300)가 구현될 수도 있다.The impact point
본 발명의 실시예에 따른 수신부(310)는 각각의 카메라(100, 110)에서 획득한 각각의 영상을 수신한다.The receiving
본 발명의 실시예에 따른 제어부(320)는 탄착점 위치 산출 장치(300)의 전반적인 동작을 제어한다.The
본 발명의 실시예에 따른 제어부(320)는 수신된 각각의 영상에 기초하여 각각의 이미지 좌표를 생성한다. 또한 제어부(320)는 생성된 각각의 이미지 좌표를 실 좌표로 변환한다. 제어부(320)는 이미지 좌표를 실좌표로 변환함에 있어서, 각각의 변환 행렬에 기초할 수도 있다. The
제어부(320)는 각각의 변환 행렬을 생성할 수 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제1 카메라(100)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제1 변환 행렬을 생성할 수도 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제2 카메라(110)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제2 변환 행렬을 생성할 수도 있다. 여기서 기준점(R1 내지 R5)의 실좌표는 GPS 등의 별도의 장치를 통해 미리 구해질 수 있다. The
본 발명의 실시예에 따른 실좌표는 해당 지점의 실제 좌표일 수 있다. 실좌표는 GPS 또는 기타 별도의 측정장치를 통해 획득될 수도 있다. 본 발명의 실시예에 따르면 실좌표는 이미지 좌표에 특정 행렬을 적용시켜 획득될 수도 있다.The actual coordinates according to the embodiment of the present invention may be the actual coordinates of the corresponding point. The actual coordinates may be obtained via GPS or other separate measurement device. According to embodiments of the present invention, real coordinates may be obtained by applying a specific matrix to image coordinates.
본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다. 본 발명의 실시예에 따른 출력부(330)는 디스플레이장치 또는 프린터 등의 인쇄장치 일 수 있다. 본 발명의 실시예에 따른 출력부(330)는 제어부(320)의 제어를 받아 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.The
다음은 도 8 및 도 9를 참조하여 본 발명의 실시예에 따른 탄착점 위치 산출 방법에 대하여 설명한다.The impact point location calculation method according to an embodiment of the present invention will now be described with reference to FIGS. 8 and 9. FIG.
도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.8 is a flowchart of an impact point location calculation method according to an embodiment of the present invention.
수신부(310)는 각각의 서버(200, 210)으로부터 탄착점(P)에 대한 각각의 이미지 좌표를 수신한다(S101).The receiving
제어부(320)는 수신된 각각의 이미지 좌표를 각각의 변환 행렬로 변환하여 각각의 실좌표를 획득한다(S103). 변환 행렬은 미리 계산되어 있을 수도 있다. 또한 별도의 저장부(미도시)에 저장되어 있을 수도 있다. 본 발명의 실시예에 따른 변환 행렬은 기준점(R1 내지 R5)의 실좌표 및 카메라에서 획득한 영상에서의 기준점(R1 내지 R5)의 이미지 좌표 즉 10개의 좌표를 파라미터로 하여 계산된다. 제어부(320)는 10개의 좌표 및 란삭(RANSAC) 알고리즘을 이용하여 변환 행렬을 생성한다.The
제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제1 카메라(100)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제1 변환 행렬을 생성한다.The
제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제2 카메라(110)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제2 변환 행렬을 생성한다.The
제어부(320)는 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출한다. 또한 제어부(320)는 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출한다.The
제어부(320)는 획득한 실좌표간의 거리가 소정의 수치 이상 인지 여부를 판단한다(S105). 즉 제어부(320)는 제1 실좌표 및 제2 실좌표간의 거리가 소정의 수치 이상인지 여부를 판단한다. 제1 실좌표와 제2 실좌표는 같은 탄착점에 대한 좌표이지만 다른 값을 갖을 수 있다. 그것은 제1 카메라(100)와 제2 카메라(110)간의 설치 위치가 다르기 때문에 각 카메라(100, 110)가 획득하는 영상이 서로 다르고, 각각의 영상에서의 탄착점에 대한 각각의 이미지 좌표도 서로 다르기 때문에, 서로 다른 이미지 좌표에 기초하여 산출된 실좌표도 서로 다를 수 있다. The
획득한 실좌표간의 거리가 소정의 수치 이상인 경우, 제어부(320)는 산출 오류라고 판단한다(S107). 위의 설명과 마찬 가지로 제1 실좌표와 제2 실좌표는 다를 수 있다. 그러나 제1 실좌표와 제2 실좌표는 같은 지점에 대한 좌표인 만큼, 실좌표 상호간의 거리가 크지 않아야 정확하게 산출된 것으로 볼 수 있다. 따라서 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 탄착점 위치 산출 장치(300)의 동작 오류라고 판단한다. 여기서 제1 실좌표와 제2 실좌표간의 거리는 제1 실좌표와 제2 실좌표간의 가로거리를 말할 수도 있다. 그러나 본 발명은 이에 한정되지 않고, 다른 의미의 거리에도 본 발명의 적용이 가능하다.If the distance between the obtained actual coordinates is equal to or larger than the predetermined value, the
본 발명의 실시예에 따르면 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 제1 실좌표와 제2 실좌표는 상호간 다른 탄착점에 대한 실좌표라고 판단할 수도 있다.According to the embodiment of the present invention, when the distance between the first real coordinate and the second real coordinate is equal to or larger than the predetermined distance, the
획득한 실좌표간의 거리가 소정의 수치 이하인 경우, 제어부(320)는 각각의 이미지 좌표에 기초하여 탄착점의 위치를 산출한다(S109). 본 발명의 실시예에 따른 제어부(320)는 제1 카메라(100)에서 제1 이미지 좌표로 투영된 점과 제2 카메라(110)에서 제2 이미지 좌표로 투영된 점을 삼각 측량하여 탄착점의 위치를 산출한다. 또한 제어부(320)는 산출 결과에 따라 탄착점이 중심점(R5)으로부터 얼마간 떨어져 있는지 판단할 수도 있다.If the distance between the obtained actual coordinates is not more than the predetermined value, the
출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력한다(S111). The
도 10은 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다. 본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치에 대응되는 지점을 평가표에 표시하여 출력할 수도 있다.10 is a diagram showing an impact point displayed on an evaluation table according to an embodiment of the present invention. The
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.
100: 제1 카메라
110: 제2 카메라
200: 제1 서버
210: 제2 서버
300: 탄착점 위치 산출 장치
310: 수신부
320: 제어부
330: 출력부100: First camera
110: Second camera
200: first server
210: a second server
300: impact point position calculating device
310:
320:
330: Output section
Claims (18)
상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버;
상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및
상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함하는 탄착점 위치 산출 시스템. First and second cameras respectively acquiring images of the vicinity of the impact point;
A first server for generating first image coordinates of an impact point on the image acquired by the first camera;
A second server for generating second image coordinates of an impact point on the image acquired by the second camera; And
And a position calculation device that calculates the position of the impact point based on the first image coordinate and the second image coordinate.
상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.The method according to claim 1,
Wherein the position calculation device triangulates a point projected from the first camera to the first image coordinate and a point projected from the second camera to the second image coordinate to calculate the position of the impact point.
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 시스템.The method according to claim 1,
Wherein the first image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the first camera to an impact point,
Wherein the second image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the second camera to an impact point.
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 탄착점 위치 산출 시스템.The method according to claim 1,
And the position calculation device displays the calculated position of the impact point on the evaluation table and outputs the result.
상기 위치 산출 장치는
상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 탄착점 위치 산출 시스템.The method according to claim 1,
The position calculating device
Wherein the first image coordinate is calculated as a first real coordinate through a first transformation matrix and the second image coordinate is calculated as a second real coordinate through a second transformation matrix.
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 시스템.6. The method of claim 5,
Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters,
Wherein the second transformation matrix is computed through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the second camera image as parameters.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 시스템.The method according to claim 6,
Wherein the position calculating device determines that the operation is abnormal if the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 시스템.The method according to claim 6,
Wherein the position calculation device determines that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second actual coordinate is equal to or larger than a predetermined value.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.The method according to claim 6,
Wherein the position calculation device calculates the position of the impact point only when the distance between the first actual coordinate and the second actual coordinate is less than a predetermined value.
제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및
위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함하는 탄착점 위치 산출 방법. Acquiring respective images of the impact point by the first and second cameras;
Each of the first server and the second server generating respective first image coordinates and second image coordinates for an impact point in each image acquired by the first and second cameras; And
Wherein the position calculating device calculates the position of the impact point based on the first image coordinate and the second image coordinate.
상기 탄착점의 위치를 산출하는 단계는
상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.11. The method of claim 10,
The step of calculating the position of the impact point
Wherein the position of the impact point is calculated by triangulating a point projected from the first camera at the first image coordinate and a point projected from the second camera at the second image coordinate.
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 방법.11. The method of claim 10,
Wherein the first image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the first camera to an impact point,
Wherein the second image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the second camera to an impact point.
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함하는 탄착점 위치 산출 방법.11. The method of claim 10,
And the position calculation device further comprises the step of displaying the calculated position of the impact point on the evaluation table and outputting the result.
상기 탄착점의 위치를 산출하는 단계는
상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함하는 탄착점 위치 산출 방법.11. The method of claim 10,
The step of calculating the position of the impact point
Calculating the first image coordinate as a first real coordinate through a first transformation matrix and computing the second image coordinate as a second real coordinate through a second transformation matrix.
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 방법.15. The method of claim 14,
Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters,
Wherein the second transformation matrix is computed through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the second camera image as parameters.
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 방법.16. The method of claim 15,
The step of calculating the position of the impact point
And when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, it is determined that the operation is abnormal.
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 방법.16. The method of claim 15,
The step of calculating the position of the impact point
And when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, determines that the first real coordinate and the second real coordinate are based on different impact points.
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.16. The method of claim 15,
The step of calculating the position of the impact point
And calculating the position of the impact point only when the distance between the first actual coordinate and the second actual coordinate is less than a predetermined value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140141601A KR101624416B1 (en) | 2014-10-20 | 2014-10-20 | System for calculating point of impact and method of thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140141601A KR101624416B1 (en) | 2014-10-20 | 2014-10-20 | System for calculating point of impact and method of thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160046352A true KR20160046352A (en) | 2016-04-29 |
KR101624416B1 KR101624416B1 (en) | 2016-05-25 |
Family
ID=55915536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140141601A KR101624416B1 (en) | 2014-10-20 | 2014-10-20 | System for calculating point of impact and method of thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101624416B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167038A (en) * | 2017-04-14 | 2017-09-15 | 华中科技大学 | A kind of method that indication of shots precision is improved based on machine vision |
EP3644008A1 (en) * | 2018-10-26 | 2020-04-29 | KE Knestel Elektronik GmbH | Targeting device and method for detecting the position of a projectile |
KR20200084077A (en) * | 2019-01-02 | 2020-07-10 | 동서대학교 산학협력단 | impact point detection method of shooting system with bullet ball pellet |
CN111750820A (en) * | 2019-03-28 | 2020-10-09 | 财团法人工业技术研究院 | Image positioning method and system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102059767B1 (en) | 2019-01-02 | 2019-12-26 | 동서대학교 산학협력단 | impact point extraction method of shooting system with bullet ball pellet |
KR20210068930A (en) | 2019-12-02 | 2021-06-10 | 한화디펜스 주식회사 | Remote weapon |
KR20230123297A (en) | 2022-02-16 | 2023-08-23 | 엘아이지넥스원 주식회사 | Method and system for extracting impact location of guided air vehicle and moving target using image information |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140091843A (en) | 2013-01-14 | 2014-07-23 | 류지윤 | Objective point calculation using position data received from GPS contained in a military artillery projectile |
-
2014
- 2014-10-20 KR KR1020140141601A patent/KR101624416B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140091843A (en) | 2013-01-14 | 2014-07-23 | 류지윤 | Objective point calculation using position data received from GPS contained in a military artillery projectile |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167038A (en) * | 2017-04-14 | 2017-09-15 | 华中科技大学 | A kind of method that indication of shots precision is improved based on machine vision |
EP3644008A1 (en) * | 2018-10-26 | 2020-04-29 | KE Knestel Elektronik GmbH | Targeting device and method for detecting the position of a projectile |
KR20200084077A (en) * | 2019-01-02 | 2020-07-10 | 동서대학교 산학협력단 | impact point detection method of shooting system with bullet ball pellet |
CN111750820A (en) * | 2019-03-28 | 2020-10-09 | 财团法人工业技术研究院 | Image positioning method and system |
CN111750820B (en) * | 2019-03-28 | 2023-03-24 | 财团法人工业技术研究院 | Image positioning method and system |
Also Published As
Publication number | Publication date |
---|---|
KR101624416B1 (en) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101624416B1 (en) | System for calculating point of impact and method of thereof | |
CN106550228B (en) | The equipment for obtaining the depth map of three-dimensional scenic | |
WO2018025115A3 (en) | Method and system for calibrating components of an inertial measurement unit (imu) using scene-captured data | |
KR102149276B1 (en) | Method of image registration | |
US20150254853A1 (en) | Calibration method and calibration device | |
CN107316319B (en) | Rigid body tracking method, device and system | |
EP3441788A1 (en) | Apparatus and method for generating a representation of a scene | |
CN105160663A (en) | Method and system for acquiring depth image | |
JP2013213769A5 (en) | ||
IL300597A (en) | Systems and methods for eye examination | |
KR102255017B1 (en) | Method for calibrating an image capture sensor comprising at least one sensor camera using a time coded pattern target | |
CN110868582B (en) | Image acquisition system with correction function | |
JP2014006179A (en) | Stereo camera calibrating apparatus and method, and distance measuring apparatus | |
US20180095549A1 (en) | Detection method and detection apparatus for detecting three-dimensional position of object | |
WO2015152691A3 (en) | Apparatus and method for generating image around vehicle | |
CN104061876A (en) | Building formwork construction monitoring system based on image measurement principle | |
KR20160077684A (en) | Apparatus and method for tracking object | |
US20150075359A1 (en) | Method for determining corrections for artillery fire | |
WO2020031950A9 (en) | Measurement calibration device, measurement calibration method, and program | |
JP2014089168A (en) | Calibration method of camera and calibration device of camera | |
US20190108673A1 (en) | Image projection method and image projection device for three-dimensional object for projection | |
CN108036730B (en) | Fire point distance measuring method based on thermal imaging | |
CN110595275A (en) | Digital image-based cannon correcting device and method thereof | |
JP5991821B2 (en) | Photogrammetry equipment | |
KR20120058802A (en) | Apparatus and method for calibrating 3D Position in 3D position/orientation tracking system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190521 Year of fee payment: 4 |