KR20160046352A - System for calculating point of impact and method of thereof - Google Patents

System for calculating point of impact and method of thereof Download PDF

Info

Publication number
KR20160046352A
KR20160046352A KR1020140141601A KR20140141601A KR20160046352A KR 20160046352 A KR20160046352 A KR 20160046352A KR 1020140141601 A KR1020140141601 A KR 1020140141601A KR 20140141601 A KR20140141601 A KR 20140141601A KR 20160046352 A KR20160046352 A KR 20160046352A
Authority
KR
South Korea
Prior art keywords
image
coordinate
impact point
coordinates
camera
Prior art date
Application number
KR1020140141601A
Other languages
Korean (ko)
Other versions
KR101624416B1 (en
Inventor
배영훈
이종찬
Original Assignee
아이브스테크놀러지(주)
이종찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이브스테크놀러지(주), 이종찬 filed Critical 아이브스테크놀러지(주)
Priority to KR1020140141601A priority Critical patent/KR101624416B1/en
Publication of KR20160046352A publication Critical patent/KR20160046352A/en
Application granted granted Critical
Publication of KR101624416B1 publication Critical patent/KR101624416B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/10Cinematographic hit-indicating systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/22Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length at, near, or formed by the object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

According to an embodiment of the present invention, a system for calculating a position of a point of the impact comprises: first and second cameras for obtaining images around the point of the impact, respectively; a first server for generating a first image coordinate of the point of the impact from the image obtained by the first camera; a second server for generating a second image coordinate of the point of the impact from the image obtained by the second camera; and a position calculating device for calculating a position of the point of the impact on the basis of the first image coordinate and the second image coordinate.

Description

탄착점 위치 산출 시스템 및 방법{SYSTEM FOR CALCULATING POINT OF IMPACT AND METHOD OF THEREOF}BACKGROUND OF THE INVENTION Field of the Invention [0001] The present invention relates to a system and a method for calculating an impact point,

본 발명은 탄착점 위치 산출 시스템 및 방법에 관한 것 입니다. 보다 상세하게 본 발명은 폭탄의 탄착점의 위치를 산출하는 시스템 및 방법에 관한 것이다.The present invention relates to an impact point location calculation system and method. More particularly, the present invention relates to a system and method for calculating the location of an impact point of a bomb.

전투기 조정사의 폭탄 발사 능력 또는 포탄 사격 능력을 평가하기 위해서는 폭탄 또는 포탄이 떨어진 곳의 위치 즉 탄착점의 위치를 정확하게 산출하는 것이 중요하다. In order to evaluate the ability of a fighter pilot to launch a bomb or to fire a shot, it is important to accurately calculate the location of the bomb or shell, ie, the location of the impact point.

종래에는 사람이 직접 탄착점의 위치를 산출하여, 산출 결과가 부정확하고, 산출하기 까지 오래 걸렸다. Conventionally, a person directly calculates the location of the impact point, and the calculation result is inaccurate and takes a long time to be calculated.

또한 사람이 직접 탄착점의 위치를 산출하여야 하기 때문에 불편하였다.Also, it was inconvenient because a person had to directly calculate the location of the impact point.

따라서 근래에는 탄착점의 위치를 빠르고, 정확하게 산출하는 시스템 및 방법이 요구 되고 있는 실정이다.Therefore, a system and a method for quickly and precisely calculating the position of the impact point have been required in recent years.

KRKR 2014-00918432014-0091843 AA

본 발명이 해결하고자 하는 과제는 빠르고 정확하게 탄착점의 위치를 산출하는 시스템 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a system and method for quickly and accurately calculating the location of an impact point.

본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라; 상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버; 상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함한다.The impact point location calculation system according to an embodiment of the present invention includes first and second cameras that respectively acquire images of the vicinity of an impact point; A first server for generating first image coordinates of an impact point on the image acquired by the first camera; A second server for generating second image coordinates of an impact point on the image acquired by the second camera; And a position calculating device for calculating a position of the impact point based on the first image coordinate and the second image coordinate.

상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.The position calculating device may calculate the position of the impact point by triangulating a point projected from the first camera to the first image coordinate and a point projected from the second camera to the second image coordinate.

상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.Wherein the first image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the first camera to the impact point, and the second image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the second camera to the impact point Lt; / RTI >

상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.The position calculation device can display the calculated position of the impact point on the evaluation table and output it.

상기 위치 산출 장치는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출할 수 있다.The position calculation device may calculate the first image coordinate through the first transformation matrix to the first real coordinate and calculate the second image coordinate to the second real coordinate through the second transformation matrix.

상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters and the second transformation matrix is calculated using five reference points And the image coordinates of the five reference points in the image of the second camera as parameters.

상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.When the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, the position calculating device can determine that the operation is abnormal.

상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.The position calculating device may determine that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.

상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.
The position calculation device can calculate the position of the impact point only when the distance between the first actual coordinate and the second real coordinate is less than a predetermined value.

본 발명의 실시예에 따른 탄착점 위치 산출 방법은 제1, 2 카메라 각각에 의하여 탄착점에 대한 각각의 영상을 획득하는 단계; 제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및 위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for calculating an impact point position, comprising: obtaining respective images of an impact point by first and second cameras; Each of the first server and the second server generating respective first image coordinates and second image coordinates for an impact point in each image acquired by the first and second cameras; And the position calculating device calculates the position of the impact point based on the first image coordinate and the second image coordinate.

상기 탄착점의 위치를 산출하는 단계는 상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.The calculating of the position of the impact point may include calculating a position of the impact point by triangulating the point projected from the first camera to the first image coordinate and the point projected from the second camera to the second image coordinate .

상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.Wherein the first image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the first camera to the impact point, and the second image coordinates are the horizontal and vertical coordinates from the specific point of the image acquired by the second camera to the impact point Lt; / RTI >

상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함할 수 있다.The position calculation device may further include a step of displaying the calculated position of the impact point on the evaluation table and outputting the result.

상기 탄착점의 위치를 산출하는 단계는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함할 수 있다.The step of calculating the position of the impact point may include calculating the first image coordinate as a first real coordinate through a first transformation matrix and calculating the second image coordinate as a second real coordinate through a second transformation matrix .

상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters and the second transformation matrix is calculated using five reference points And the image coordinates of the five reference points in the image of the second camera as parameters.

상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.The step of calculating the position of the impact point may be determined as an abnormal operation when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.

상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.The step of calculating the position of the impact point may determine that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second real coordinate is a predetermined value or more have.

상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.The step of calculating the position of the impact point may calculate the position of the impact point only when the distance between the first actual coordinate and the second real coordinate is less than a predetermined value.

본 발명의 실시예에 따르면 하나의 탄착점으로부터 획득한 두 개의 실 좌표를 비교하여, 탄착점 위치 산출 장치의 오류를 판단할 수 있다.According to the embodiment of the present invention, an error of the impact point location calculation device can be determined by comparing two actual coordinates obtained from one impact point.

또한 복수의 카메라를 통한 복수의 이미지 좌표에 기초하여 탄착점 위치 산출 장치가 탄착점의 위치를 산출하기 때문에 정확하게 탄착점의 위치를 산출 할 수 있다.In addition, since the impact point position calculating device calculates the position of the impact point based on a plurality of image coordinates through a plurality of cameras, the position of the impact point can be accurately calculated.

도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.
도 2는 탄착점 및 기준점을 나타낸 도면이다.
도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.
도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.
도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.
도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.
도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.
도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.
도 9는 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다.
1 is a block diagram of an impact point location calculation system according to an embodiment of the present invention.
2 is a view showing an impact point and a reference point.
FIG. 3 is a diagram showing flashing due to the impact of a night-time bomb.
4 is a view showing the generation of smoke due to the collision of the daytime bomb.
5 is a diagram for explaining image coordinates according to an embodiment of the present invention.
6 is a view showing an image obtained by a camera and by an angle of the camera.
7 is a block diagram of an impact point position calculating apparatus according to an embodiment of the present invention.
8 is a flowchart of an impact point location calculation method according to an embodiment of the present invention.
9 is a view showing an impact point displayed on an evaluation table according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as "including " an element, it is understood that it does not exclude other elements, but may include other elements, unless specifically stated otherwise.

또한 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Also, throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . When an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

이제 본 발명의 실시 예에 따른 탄착점 위치 산출 장치 및 그 방법에 대하여 도면을 참고로 하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An impact point location calculation apparatus and method according to an embodiment of the present invention will now be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.1 is a block diagram of an impact point location calculation system according to an embodiment of the present invention.

본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 복수의 카메라(100, 110), 복수의 서버(200, 210), 탄착점 위치 산출 장치(300)을 포함한다. 그러나 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 시스템이 구현될 수도 있다.The impact point location calculation system according to the embodiment of the present invention includes a plurality of cameras 100 and 110, a plurality of servers 200 and 210, and an impact point location calculation apparatus 300. However, the components shown in Fig. 1 are not essential, so that an impact point location calculation system having more or fewer components may be implemented.

본 발명의 실시예에 따른 각각의 카메라(100, 110)는 탄착점(P) 주변의 영상을 획득하여 서버(200, 210)로 전송한다. 본 발명의 실시예에 따르면, 카메라(100, 110)가 서버(200, 210)로 보내는 영상의 범위는 기 설정되어 있을 수도 있다. Each of the cameras 100 and 110 according to the embodiment of the present invention acquires an image around the impact point P and transmits the image to the servers 200 and 210. [ According to the embodiment of the present invention, the range of the image transmitted from the cameras 100 and 110 to the servers 200 and 210 may be preset.

제1 카메라(100)는 제1 서버(200)로 탄착점(P) 주변의 영상을 전송한다. 제1 서버(200)는 제1 카메라(100)가 획득한 영상에 기초하여 탄착점(P)에 대한 제1 이미지 좌표를 생성한다.The first camera 100 transmits the image of the vicinity of the impact point P to the first server 200. The first server 200 generates a first image coordinate for the impact point P based on the image acquired by the first camera 100. [

제2 카메라(110)는 제2 서버(210)로 탄착점(P) 주변의 영상을 전송한다. 제2 서버(210)는 제2 카메라(110)가 획득한 영상에 기초하여 탄착점(P)에 대한 제2 이미지 좌표를 생성한다.The second camera 110 transmits the image of the vicinity of the impact point P to the second server 210. The second server 210 generates the second image coordinates for the impact point P based on the image acquired by the second camera 110. [

다음은 도 2 내지 도 6를 참조하여 각각의 카메라(100, 110)가 획득하는 이미지 좌표에 대하여 설명하겠다.Next, the image coordinates obtained by each of the cameras 100 and 110 will be described with reference to Figs. 2 to 6. Fig.

도 2는 탄착점 및 기준점을 나타낸 도면이다.2 is a view showing an impact point and a reference point.

본 발명의 실시예에 따르면 기준점(R1 내지 R5)은 탄착점(P) 주변의 특정 지점이다. 기준점(R1 내지 R4)은 중앙에 위치한 기준점인 중심점(R5, Mid-Point)으로부터 동일한 거리 위치한다. 본 발명의 실시예에 따른 기준점(R1 내지 R5)는 외부 입력을 통해 설정될 수도 있다. 또한 기준점(R1 내지 R5)는 기설정되어 있을 수도 있다.According to the embodiment of the present invention, the reference points (R1 to R5) are specific points around the impact point (P). The reference points R1 to R4 are located at the same distance from the center point (R5, Mid-Point) which is a reference point located at the center. The reference points (R1 to R5) according to the embodiment of the present invention may be set through an external input. The reference points R1 to R5 may be preset.

도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.FIG. 3 is a diagram showing flashing due to the impact of a night-time bomb.

도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.4 is a view showing the generation of smoke due to the collision of the daytime bomb.

야간시, 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 섬광의 위치를 탄착점으로 판단한다.At night, each of the servers 200 and 210 determines the position of the flash generated by the bombardment of the captured image as an impact point.

또한 주간시 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 연기의 하단부를 탄착점으로 판단한다.In addition, each of the servers 200 and 210 during the daytime determines the lower end of the smoke generated by the bombardment of the captured image as an impact point.

도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.5 is a diagram for explaining image coordinates according to an embodiment of the present invention.

본 발명의 실시예에 따른 각각의 서버(200, 210)는 각각의 카메라(100, 110)로부터 획득된 각각의 영상에서 탄착점의 좌표를 X, Y의 조합으로 산출할 수 있다. 여기서 X는 영상의 특정 지점에서의 탄착점까지의 가로 거리, Y는 영상의 특정 지점에서는 탄착점까지의 세로 거리 일 수 있다. Each of the servers 200 and 210 according to the embodiment of the present invention can calculate the coordinates of the impact point in each image obtained from each of the cameras 100 and 110 as a combination of X and Y. [ Where X is the horizontal distance to the impact point at a particular point in the image and Y is the vertical distance to the point of impact at a specific point in the image.

본 발명의 실시예에 따르면, 각각의 서버(200, 210)는 영상에서 최좌측 상단에서 기준점까지의 가로 픽셀 수를 X로, 세로 픽셀 수를 Y로 산출할 수도 있다.According to the embodiment of the present invention, each of the servers 200 and 210 may calculate the number of horizontal pixels from the uppermost left-hand upper end of the image to the reference point by X and the number of vertical pixels by Y, respectively.

도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.6 is a view showing an image obtained by a camera and by an angle of the camera.

같은 위치의 탄착점이라고 하더라도 이미지 좌표를 다를 수 있다. 카메라의 촬영 각도에 따라 획득되는 영상도 다르기 때문이다. 제1 카메라(100)와 제2 카메라(110)는 서로 다른 위치에 배치되기 때문에, 제1 카메라(100)의 획득 영상에 대한 제1 이미지 좌표와 제2 카메라(110)의 획득 영상에 대한 제2 이미지 좌표는 서로 다른 값을 갖는다.Even if it is an impact point at the same position, the image coordinates may be different. This is because the images obtained in accordance with the camera angle are also different. Since the first camera 100 and the second camera 110 are disposed at different positions, the first image coordinate of the acquired image of the first camera 100 and the first image coordinate of the acquired image of the second camera 110 2 Image coordinates have different values.

탄착점에 대한 하나의 이미지 좌표에 란삭(RANSAC) 알고리즘을 통해 획득된 행렬을 적용할 경우 탄착점의 실좌표가 획득 될 수 있다. When applying a matrix obtained by the RANSAC algorithm to one image coordinate for an impact point, the real coordinates of the impact point can be obtained.

그러나 하나의 이미지 좌표에 대하여 란삭 알고리즘을 이용하여 획득된 실좌표는 란삭 알고리즘이 이차원 평면을 가정하기 때문에 오차가 발생할 수 있다. However, the real coordinates obtained by using the LACS algorithm for one image coordinate may cause errors because the LACS algorithm assumes a two-dimensional plane.

또한 도 6에 도시된 것과 같이 카메라의 촬영 각도에 따라 획득되는 영상에도 차이가 발생하기 때문에 한대의 카메라에서 획득한 영상의 이미지 좌표만을 가지고 탄착점의 위치를 산출하는 것은 오차가 발생할 수 있다.Also, as shown in FIG. 6, there is also a difference in the images obtained according to the camera angle, so that it may be an error to calculate the location of the impact point using only the image coordinates of the image acquired by one camera.

본 발명은 이러한 오차의 발생을 줄이고, 정확한 탄착점의 위치를 산출하기 위하여 적어도 두 대의 카메라에서 획득한 영상을 이용한다. 본 명세서에서는 두 대의 카메라를 이용하고 있지만 본 발명은 이에 한정되지 않는다. 얼마든지 더 많은 카메라를 이용하는 경우에도 본 발명의 적용이 가능하다. The present invention utilizes images obtained from at least two cameras to reduce the occurrence of such errors and to calculate the position of an accurate impact point. Although two cameras are used in this specification, the present invention is not limited thereto. The present invention can be applied to any number of cameras.

탄착점 위치 판단 장치(300)는 제1, 2 이미지 좌표에 기초하여 탄착점(P)의 위치를 판단 한다. 탄착점 위치 판단 장치(300)의 동작에 대하여는 이하에서 상세하게 설명하겠다.The impact point location determination apparatus 300 determines the location of the impact point P based on the first and second image coordinates. The operation of the impact point position determination apparatus 300 will be described in detail below.

도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.7 is a block diagram of an impact point position calculating apparatus according to an embodiment of the present invention.

본 발명의 실시예에 따른 탄착점 위치 산출 장치(300)는 수신부(310), 제어부(320) 및 출력부(330)을 포함한다. 그러나 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 장치(300)가 구현될 수도 있다.The impact point location calculation apparatus 300 according to an embodiment of the present invention includes a reception unit 310, a control unit 320, and an output unit 330. However, the components shown in FIG. 2 are not essential, so that the impact point position calculating apparatus 300 having more or fewer components may be implemented.

본 발명의 실시예에 따른 수신부(310)는 각각의 카메라(100, 110)에서 획득한 각각의 영상을 수신한다.The receiving unit 310 according to the embodiment of the present invention receives each image acquired by each of the cameras 100 and 110.

본 발명의 실시예에 따른 제어부(320)는 탄착점 위치 산출 장치(300)의 전반적인 동작을 제어한다.The control unit 320 according to an embodiment of the present invention controls the overall operation of the impact point location calculation device 300. [

본 발명의 실시예에 따른 제어부(320)는 수신된 각각의 영상에 기초하여 각각의 이미지 좌표를 생성한다. 또한 제어부(320)는 생성된 각각의 이미지 좌표를 실 좌표로 변환한다. 제어부(320)는 이미지 좌표를 실좌표로 변환함에 있어서, 각각의 변환 행렬에 기초할 수도 있다. The controller 320 according to the embodiment of the present invention generates respective image coordinates based on the received images. In addition, the controller 320 converts each of the generated image coordinates into real coordinates. The control unit 320 may be based on each transformation matrix in converting image coordinates to real coordinates.

제어부(320)는 각각의 변환 행렬을 생성할 수 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제1 카메라(100)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제1 변환 행렬을 생성할 수도 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제2 카메라(110)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제2 변환 행렬을 생성할 수도 있다. 여기서 기준점(R1 내지 R5)의 실좌표는 GPS 등의 별도의 장치를 통해 미리 구해질 수 있다. The control unit 320 may generate each transformation matrix. The control unit 320 performs a first conversion process using the RANSAC algorithm using the actual coordinates of the reference points R1 to R5 and the image coordinates of the reference points R1 to R5 in the image obtained by the first camera 100 as parameters, It is also possible to generate a matrix. The controller 320 uses the image coordinates of the reference points R1 to R5 and the reference coordinates of the reference points R1 to R5 in the image obtained by the second camera 110 as parameters, It is also possible to generate a matrix. Here, the real coordinates of the reference points (R1 to R5) can be obtained in advance through a separate device such as a GPS.

본 발명의 실시예에 따른 실좌표는 해당 지점의 실제 좌표일 수 있다. 실좌표는 GPS 또는 기타 별도의 측정장치를 통해 획득될 수도 있다. 본 발명의 실시예에 따르면 실좌표는 이미지 좌표에 특정 행렬을 적용시켜 획득될 수도 있다.The actual coordinates according to the embodiment of the present invention may be the actual coordinates of the corresponding point. The actual coordinates may be obtained via GPS or other separate measurement device. According to embodiments of the present invention, real coordinates may be obtained by applying a specific matrix to image coordinates.

본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다. 본 발명의 실시예에 따른 출력부(330)는 디스플레이장치 또는 프린터 등의 인쇄장치 일 수 있다. 본 발명의 실시예에 따른 출력부(330)는 제어부(320)의 제어를 받아 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.The output unit 330 according to the embodiment of the present invention can display the calculated position of the impact point on the evaluation table and output it. The output unit 330 according to the embodiment of the present invention may be a printing apparatus such as a display apparatus or a printer. The output unit 330 according to the embodiment of the present invention can display the location of the impact point on the evaluation table and output it by receiving the control of the control unit 320. [

다음은 도 8 및 도 9를 참조하여 본 발명의 실시예에 따른 탄착점 위치 산출 방법에 대하여 설명한다.The impact point location calculation method according to an embodiment of the present invention will now be described with reference to FIGS. 8 and 9. FIG.

도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.8 is a flowchart of an impact point location calculation method according to an embodiment of the present invention.

수신부(310)는 각각의 서버(200, 210)으로부터 탄착점(P)에 대한 각각의 이미지 좌표를 수신한다(S101).The receiving unit 310 receives the respective image coordinates of the impact point P from the servers 200 and 210 (S101).

제어부(320)는 수신된 각각의 이미지 좌표를 각각의 변환 행렬로 변환하여 각각의 실좌표를 획득한다(S103). 변환 행렬은 미리 계산되어 있을 수도 있다. 또한 별도의 저장부(미도시)에 저장되어 있을 수도 있다. 본 발명의 실시예에 따른 변환 행렬은 기준점(R1 내지 R5)의 실좌표 및 카메라에서 획득한 영상에서의 기준점(R1 내지 R5)의 이미지 좌표 즉 10개의 좌표를 파라미터로 하여 계산된다. 제어부(320)는 10개의 좌표 및 란삭(RANSAC) 알고리즘을 이용하여 변환 행렬을 생성한다.The controller 320 converts the received image coordinates into respective transformation matrices to obtain actual coordinates (S103). The transformation matrix may be calculated in advance. Or may be stored in a separate storage unit (not shown). The transformation matrix according to the embodiment of the present invention is calculated by using as parameters the real coordinates of the reference points (R1 to R5) and the image coordinates of the reference points (R1 to R5) in the image obtained by the camera, that is, ten coordinates. The control unit 320 generates a transformation matrix using ten coordinate and RANSAC algorithms.

제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제1 카메라(100)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제1 변환 행렬을 생성한다.The control unit 320 uses five image coordinates of the reference points R1 to R5 and five image coordinates of the reference points R1 to R5 in the image obtained by the first camera 100 as parameters, Creates a transformation matrix.

제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제2 카메라(110)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제2 변환 행렬을 생성한다.The control unit 320 sets five image coordinates of each of the reference points R1 to R5 and five image coordinates of the reference points R1 to R5 in the image obtained by the second camera 110 as parameters, Creates a transformation matrix.

제어부(320)는 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출한다. 또한 제어부(320)는 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출한다.The control unit 320 calculates the first image coordinate as the first real coordinate through the first transformation matrix. Further, the control unit 320 calculates the second image coordinates as the second real coordinates through the second transformation matrix.

제어부(320)는 획득한 실좌표간의 거리가 소정의 수치 이상 인지 여부를 판단한다(S105). 즉 제어부(320)는 제1 실좌표 및 제2 실좌표간의 거리가 소정의 수치 이상인지 여부를 판단한다. 제1 실좌표와 제2 실좌표는 같은 탄착점에 대한 좌표이지만 다른 값을 갖을 수 있다. 그것은 제1 카메라(100)와 제2 카메라(110)간의 설치 위치가 다르기 때문에 각 카메라(100, 110)가 획득하는 영상이 서로 다르고, 각각의 영상에서의 탄착점에 대한 각각의 이미지 좌표도 서로 다르기 때문에, 서로 다른 이미지 좌표에 기초하여 산출된 실좌표도 서로 다를 수 있다. The control unit 320 determines whether the distance between the actual coordinates obtained is equal to or greater than a predetermined value (S105). That is, the controller 320 determines whether the distance between the first and second coordinates is equal to or greater than a predetermined value. The first true coordinate and the second true coordinate are coordinates for the same impact point, but may have different values. Since the installation positions of the first camera 100 and the second camera 110 are different from each other, the images obtained by the cameras 100 and 110 are different from each other, and the image coordinates of the impact point in each image are different from each other Therefore, actual coordinates calculated based on different image coordinates may also be different from each other.

획득한 실좌표간의 거리가 소정의 수치 이상인 경우, 제어부(320)는 산출 오류라고 판단한다(S107). 위의 설명과 마찬 가지로 제1 실좌표와 제2 실좌표는 다를 수 있다. 그러나 제1 실좌표와 제2 실좌표는 같은 지점에 대한 좌표인 만큼, 실좌표 상호간의 거리가 크지 않아야 정확하게 산출된 것으로 볼 수 있다. 따라서 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 탄착점 위치 산출 장치(300)의 동작 오류라고 판단한다. 여기서 제1 실좌표와 제2 실좌표간의 거리는 제1 실좌표와 제2 실좌표간의 가로거리를 말할 수도 있다. 그러나 본 발명은 이에 한정되지 않고, 다른 의미의 거리에도 본 발명의 적용이 가능하다.If the distance between the obtained actual coordinates is equal to or larger than the predetermined value, the control unit 320 determines that it is a calculation error (S107). As described above, the first and second coordinates may be different. However, since the first actual coordinate and the second real coordinate are the coordinates for the same point, it can be seen that the distance between the actual coordinates is not exactly large, so that it is accurately calculated. Accordingly, when the distance between the first actual coordinate and the second real coordinate is equal to or greater than a predetermined distance, the control unit 320 determines that the impact point location calculation apparatus 300 has an operation error. Here, the distance between the first actual coordinate and the second actual coordinate may be a horizontal distance between the first real coordinate and the second real coordinate. However, the present invention is not limited to this, and the present invention can be applied to other distances.

본 발명의 실시예에 따르면 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 제1 실좌표와 제2 실좌표는 상호간 다른 탄착점에 대한 실좌표라고 판단할 수도 있다.According to the embodiment of the present invention, when the distance between the first real coordinate and the second real coordinate is equal to or larger than the predetermined distance, the controller 320 determines that the first real coordinate and the second real coordinate are real coordinates for different impact points It is possible.

획득한 실좌표간의 거리가 소정의 수치 이하인 경우, 제어부(320)는 각각의 이미지 좌표에 기초하여 탄착점의 위치를 산출한다(S109). 본 발명의 실시예에 따른 제어부(320)는 제1 카메라(100)에서 제1 이미지 좌표로 투영된 점과 제2 카메라(110)에서 제2 이미지 좌표로 투영된 점을 삼각 측량하여 탄착점의 위치를 산출한다. 또한 제어부(320)는 산출 결과에 따라 탄착점이 중심점(R5)으로부터 얼마간 떨어져 있는지 판단할 수도 있다.If the distance between the obtained actual coordinates is not more than the predetermined value, the control unit 320 calculates the position of the impact point based on the respective image coordinates (S109). The control unit 320 according to the embodiment of the present invention triangulates a point projected from the first camera 100 in the first image coordinate system and a point projected from the second camera 110 in the second image coordinate system, . Further, the control unit 320 may determine whether the impact point is some distance from the center point R5 according to the calculation result.

출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력한다(S111). The output unit 330 displays the calculated position of the impact point on the evaluation table and outputs it (S111).

도 10은 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다. 본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치에 대응되는 지점을 평가표에 표시하여 출력할 수도 있다.10 is a diagram showing an impact point displayed on an evaluation table according to an embodiment of the present invention. The output unit 330 according to the embodiment of the present invention may display a point corresponding to the calculated position of the impact point on the evaluation table and output it.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.

100: 제1 카메라
110: 제2 카메라
200: 제1 서버
210: 제2 서버
300: 탄착점 위치 산출 장치
310: 수신부
320: 제어부
330: 출력부
100: First camera
110: Second camera
200: first server
210: a second server
300: impact point position calculating device
310:
320:
330: Output section

Claims (18)

탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라;
상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버;
상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및
상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함하는 탄착점 위치 산출 시스템.
First and second cameras respectively acquiring images of the vicinity of the impact point;
A first server for generating first image coordinates of an impact point on the image acquired by the first camera;
A second server for generating second image coordinates of an impact point on the image acquired by the second camera; And
And a position calculation device that calculates the position of the impact point based on the first image coordinate and the second image coordinate.
제1항에 있어서,
상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.
The method according to claim 1,
Wherein the position calculation device triangulates a point projected from the first camera to the first image coordinate and a point projected from the second camera to the second image coordinate to calculate the position of the impact point.
제1항에 있어서,
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 시스템.
The method according to claim 1,
Wherein the first image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the first camera to an impact point,
Wherein the second image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the second camera to an impact point.
제1항에 있어서,
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 탄착점 위치 산출 시스템.
The method according to claim 1,
And the position calculation device displays the calculated position of the impact point on the evaluation table and outputs the result.
제1항에 있어서,
상기 위치 산출 장치는
상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 탄착점 위치 산출 시스템.
The method according to claim 1,
The position calculating device
Wherein the first image coordinate is calculated as a first real coordinate through a first transformation matrix and the second image coordinate is calculated as a second real coordinate through a second transformation matrix.
제5항에 있어서,
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 시스템.
6. The method of claim 5,
Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters,
Wherein the second transformation matrix is computed through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the second camera image as parameters.
제6항에 있어서,
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 시스템.
The method according to claim 6,
Wherein the position calculating device determines that the operation is abnormal if the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value.
제6항에 있어서,
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 시스템.
The method according to claim 6,
Wherein the position calculation device determines that the first actual coordinate and the second real coordinate are based on different impact points when the distance between the first actual coordinate and the second actual coordinate is equal to or larger than a predetermined value.
제6항에 있어서,
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.
The method according to claim 6,
Wherein the position calculation device calculates the position of the impact point only when the distance between the first actual coordinate and the second actual coordinate is less than a predetermined value.
제1, 2 카메라 각각에 의하여 탄착점에 대한 각각의 영상을 획득하는 단계;
제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및
위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함하는 탄착점 위치 산출 방법.
Acquiring respective images of the impact point by the first and second cameras;
Each of the first server and the second server generating respective first image coordinates and second image coordinates for an impact point in each image acquired by the first and second cameras; And
Wherein the position calculating device calculates the position of the impact point based on the first image coordinate and the second image coordinate.
제10항에 있어서,
상기 탄착점의 위치를 산출하는 단계는
상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.
11. The method of claim 10,
The step of calculating the position of the impact point
Wherein the position of the impact point is calculated by triangulating a point projected from the first camera at the first image coordinate and a point projected from the second camera at the second image coordinate.
제10항에 있어서,
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 방법.
11. The method of claim 10,
Wherein the first image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the first camera to an impact point,
Wherein the second image coordinates are the horizontal and vertical coordinates from a specific point of the image acquired by the second camera to an impact point.
제10항에 있어서,
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함하는 탄착점 위치 산출 방법.
11. The method of claim 10,
And the position calculation device further comprises the step of displaying the calculated position of the impact point on the evaluation table and outputting the result.
제10항에 있어서,
상기 탄착점의 위치를 산출하는 단계는
상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함하는 탄착점 위치 산출 방법.
11. The method of claim 10,
The step of calculating the position of the impact point
Calculating the first image coordinate as a first real coordinate through a first transformation matrix and computing the second image coordinate as a second real coordinate through a second transformation matrix.
제14항에 있어서,
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 방법.
15. The method of claim 14,
Wherein the first transformation matrix is calculated through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the image of the first camera as parameters,
Wherein the second transformation matrix is computed through a rough algorithm using real coordinates for five reference points and image coordinates for the five reference points in the second camera image as parameters.
제15항에 있어서,
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 방법.
16. The method of claim 15,
The step of calculating the position of the impact point
And when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, it is determined that the operation is abnormal.
제15항에 있어서,
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 방법.
16. The method of claim 15,
The step of calculating the position of the impact point
And when the distance between the first actual coordinate and the second real coordinate is equal to or larger than a predetermined value, determines that the first real coordinate and the second real coordinate are based on different impact points.
제15항에 있어서,
상기 탄착점의 위치를 산출하는 단계는
상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.
16. The method of claim 15,
The step of calculating the position of the impact point
And calculating the position of the impact point only when the distance between the first actual coordinate and the second actual coordinate is less than a predetermined value.
KR1020140141601A 2014-10-20 2014-10-20 System for calculating point of impact and method of thereof KR101624416B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140141601A KR101624416B1 (en) 2014-10-20 2014-10-20 System for calculating point of impact and method of thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140141601A KR101624416B1 (en) 2014-10-20 2014-10-20 System for calculating point of impact and method of thereof

Publications (2)

Publication Number Publication Date
KR20160046352A true KR20160046352A (en) 2016-04-29
KR101624416B1 KR101624416B1 (en) 2016-05-25

Family

ID=55915536

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140141601A KR101624416B1 (en) 2014-10-20 2014-10-20 System for calculating point of impact and method of thereof

Country Status (1)

Country Link
KR (1) KR101624416B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167038A (en) * 2017-04-14 2017-09-15 华中科技大学 A kind of method that indication of shots precision is improved based on machine vision
EP3644008A1 (en) * 2018-10-26 2020-04-29 KE Knestel Elektronik GmbH Targeting device and method for detecting the position of a projectile
KR20200084077A (en) * 2019-01-02 2020-07-10 동서대학교 산학협력단 impact point detection method of shooting system with bullet ball pellet
CN111750820A (en) * 2019-03-28 2020-10-09 财团法人工业技术研究院 Image positioning method and system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059767B1 (en) 2019-01-02 2019-12-26 동서대학교 산학협력단 impact point extraction method of shooting system with bullet ball pellet
KR20210068930A (en) 2019-12-02 2021-06-10 한화디펜스 주식회사 Remote weapon
KR20230123297A (en) 2022-02-16 2023-08-23 엘아이지넥스원 주식회사 Method and system for extracting impact location of guided air vehicle and moving target using image information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140091843A (en) 2013-01-14 2014-07-23 류지윤 Objective point calculation using position data received from GPS contained in a military artillery projectile

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140091843A (en) 2013-01-14 2014-07-23 류지윤 Objective point calculation using position data received from GPS contained in a military artillery projectile

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167038A (en) * 2017-04-14 2017-09-15 华中科技大学 A kind of method that indication of shots precision is improved based on machine vision
EP3644008A1 (en) * 2018-10-26 2020-04-29 KE Knestel Elektronik GmbH Targeting device and method for detecting the position of a projectile
KR20200084077A (en) * 2019-01-02 2020-07-10 동서대학교 산학협력단 impact point detection method of shooting system with bullet ball pellet
CN111750820A (en) * 2019-03-28 2020-10-09 财团法人工业技术研究院 Image positioning method and system
CN111750820B (en) * 2019-03-28 2023-03-24 财团法人工业技术研究院 Image positioning method and system

Also Published As

Publication number Publication date
KR101624416B1 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
KR101624416B1 (en) System for calculating point of impact and method of thereof
CN106550228B (en) The equipment for obtaining the depth map of three-dimensional scenic
WO2018025115A3 (en) Method and system for calibrating components of an inertial measurement unit (imu) using scene-captured data
KR102149276B1 (en) Method of image registration
US20150254853A1 (en) Calibration method and calibration device
CN107316319B (en) Rigid body tracking method, device and system
EP3441788A1 (en) Apparatus and method for generating a representation of a scene
CN105160663A (en) Method and system for acquiring depth image
JP2013213769A5 (en)
IL300597A (en) Systems and methods for eye examination
KR102255017B1 (en) Method for calibrating an image capture sensor comprising at least one sensor camera using a time coded pattern target
CN110868582B (en) Image acquisition system with correction function
JP2014006179A (en) Stereo camera calibrating apparatus and method, and distance measuring apparatus
US20180095549A1 (en) Detection method and detection apparatus for detecting three-dimensional position of object
WO2015152691A3 (en) Apparatus and method for generating image around vehicle
CN104061876A (en) Building formwork construction monitoring system based on image measurement principle
KR20160077684A (en) Apparatus and method for tracking object
US20150075359A1 (en) Method for determining corrections for artillery fire
WO2020031950A9 (en) Measurement calibration device, measurement calibration method, and program
JP2014089168A (en) Calibration method of camera and calibration device of camera
US20190108673A1 (en) Image projection method and image projection device for three-dimensional object for projection
CN108036730B (en) Fire point distance measuring method based on thermal imaging
CN110595275A (en) Digital image-based cannon correcting device and method thereof
JP5991821B2 (en) Photogrammetry equipment
KR20120058802A (en) Apparatus and method for calibrating 3D Position in 3D position/orientation tracking system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190521

Year of fee payment: 4