KR101624416B1 - 탄착점 위치 산출 시스템 및 방법 - Google Patents

탄착점 위치 산출 시스템 및 방법 Download PDF

Info

Publication number
KR101624416B1
KR101624416B1 KR1020140141601A KR20140141601A KR101624416B1 KR 101624416 B1 KR101624416 B1 KR 101624416B1 KR 1020140141601 A KR1020140141601 A KR 1020140141601A KR 20140141601 A KR20140141601 A KR 20140141601A KR 101624416 B1 KR101624416 B1 KR 101624416B1
Authority
KR
South Korea
Prior art keywords
image
coordinate
impact point
coordinates
camera
Prior art date
Application number
KR1020140141601A
Other languages
English (en)
Other versions
KR20160046352A (ko
Inventor
배영훈
이종찬
Original Assignee
아이브스테크놀러지(주)
이종찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이브스테크놀러지(주), 이종찬 filed Critical 아이브스테크놀러지(주)
Priority to KR1020140141601A priority Critical patent/KR101624416B1/ko
Publication of KR20160046352A publication Critical patent/KR20160046352A/ko
Application granted granted Critical
Publication of KR101624416B1 publication Critical patent/KR101624416B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/10Cinematographic hit-indicating systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/22Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length at, near, or formed by the object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라, 상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버, 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버 및 제1 이미지 좌표 및 제2 이미지 좌표에 기초하여 탄착점의 위치를 산출하는 위치 산출 장치를 포함한다.

Description

탄착점 위치 산출 시스템 및 방법{SYSTEM FOR CALCULATING POINT OF IMPACT AND METHOD OF THEREOF}
본 발명은 탄착점 위치 산출 시스템 및 방법에 관한 것 입니다. 보다 상세하게 본 발명은 폭탄의 탄착점의 위치를 산출하는 시스템 및 방법에 관한 것이다.
전투기 조정사의 폭탄 발사 능력 또는 포탄 사격 능력을 평가하기 위해서는 폭탄 또는 포탄이 떨어진 곳의 위치 즉 탄착점의 위치를 정확하게 산출하는 것이 중요하다.
종래에는 사람이 직접 탄착점의 위치를 산출하여, 산출 결과가 부정확하고, 산출하기 까지 오래 걸렸다.
또한 사람이 직접 탄착점의 위치를 산출하여야 하기 때문에 불편하였다.
따라서 근래에는 탄착점의 위치를 빠르고, 정확하게 산출하는 시스템 및 방법이 요구 되고 있는 실정이다.
KR 2014-0091843 A
본 발명이 해결하고자 하는 과제는 빠르고 정확하게 탄착점의 위치를 산출하는 시스템 및 방법을 제공하는 것이다.
본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라; 상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버; 상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함한다.
상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.
상기 위치 산출 장치는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출할 수 있다.
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.
상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.
본 발명의 실시예에 따른 탄착점 위치 산출 방법은 제1, 2 카메라 각각에 의하여 탄착점에 대한 각각의 영상을 획득하는 단계; 제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및 위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함한다.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출할 수 있다.
상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고, 상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표일 수 있다.
상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함할 수 있다.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함할 수 있다.
상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고, 상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출될 수 있다.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단할 수 있다.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단할 수 있다.
상기 탄착점의 위치를 산출하는 단계는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출할 수 있다.
본 발명의 실시예에 따르면 하나의 탄착점으로부터 획득한 두 개의 실 좌표를 비교하여, 탄착점 위치 산출 장치의 오류를 판단할 수 있다.
또한 복수의 카메라를 통한 복수의 이미지 좌표에 기초하여 탄착점 위치 산출 장치가 탄착점의 위치를 산출하기 때문에 정확하게 탄착점의 위치를 산출 할 수 있다.
도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.
도 2는 탄착점 및 기준점을 나타낸 도면이다.
도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.
도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.
도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.
도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.
도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.
도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.
도 9는 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
또한 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이제 본 발명의 실시 예에 따른 탄착점 위치 산출 장치 및 그 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 탄착점 위치 산출 시스템의 블록도이다.
본 발명의 실시예에 따른 탄착점 위치 산출 시스템은 복수의 카메라(100, 110), 복수의 서버(200, 210), 탄착점 위치 산출 장치(300)을 포함한다. 그러나 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 시스템이 구현될 수도 있다.
본 발명의 실시예에 따른 각각의 카메라(100, 110)는 탄착점(P) 주변의 영상을 획득하여 서버(200, 210)로 전송한다. 본 발명의 실시예에 따르면, 카메라(100, 110)가 서버(200, 210)로 보내는 영상의 범위는 기 설정되어 있을 수도 있다.
제1 카메라(100)는 제1 서버(200)로 탄착점(P) 주변의 영상을 전송한다. 제1 서버(200)는 제1 카메라(100)가 획득한 영상에 기초하여 탄착점(P)에 대한 제1 이미지 좌표를 생성한다.
제2 카메라(110)는 제2 서버(210)로 탄착점(P) 주변의 영상을 전송한다. 제2 서버(210)는 제2 카메라(110)가 획득한 영상에 기초하여 탄착점(P)에 대한 제2 이미지 좌표를 생성한다.
다음은 도 2 내지 도 6를 참조하여 각각의 카메라(100, 110)가 획득하는 이미지 좌표에 대하여 설명하겠다.
도 2는 탄착점 및 기준점을 나타낸 도면이다.
본 발명의 실시예에 따르면 기준점(R1 내지 R5)은 탄착점(P) 주변의 특정 지점이다. 기준점(R1 내지 R4)은 중앙에 위치한 기준점인 중심점(R5, Mid-Point)으로부터 동일한 거리 위치한다. 본 발명의 실시예에 따른 기준점(R1 내지 R5)는 외부 입력을 통해 설정될 수도 있다. 또한 기준점(R1 내지 R5)는 기설정되어 있을 수도 있다.
도 3는 야간시 폭탄의 탄착으로 인한 섬광을 나타낸 도면이다.
도 4은 주간시 폭탄의 탄착으로 인한 연기의 발생을 나타낸 도면이다.
야간시, 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 섬광의 위치를 탄착점으로 판단한다.
또한 주간시 각각의 서버(200, 210)는 획득된 영상에서 폭탄의 탄착으로 발생하는 연기의 하단부를 탄착점으로 판단한다.
도 5은 본 발명의 실시예에 따른 이미지 좌표를 설명하기 위한 도면이다.
본 발명의 실시예에 따른 각각의 서버(200, 210)는 각각의 카메라(100, 110)로부터 획득된 각각의 영상에서 탄착점의 좌표를 X, Y의 조합으로 산출할 수 있다. 여기서 X는 영상의 특정 지점에서의 탄착점까지의 가로 거리, Y는 영상의 특정 지점에서는 탄착점까지의 세로 거리 일 수 있다.
본 발명의 실시예에 따르면, 각각의 서버(200, 210)는 영상에서 최좌측 상단에서 기준점까지의 가로 픽셀 수를 X로, 세로 픽셀 수를 Y로 산출할 수도 있다.
도 6은 카메라의 각도 별, 카메라에 의해 획득되는 영상을 나타낸 도면이다.
같은 위치의 탄착점이라고 하더라도 이미지 좌표를 다를 수 있다. 카메라의 촬영 각도에 따라 획득되는 영상도 다르기 때문이다. 제1 카메라(100)와 제2 카메라(110)는 서로 다른 위치에 배치되기 때문에, 제1 카메라(100)의 획득 영상에 대한 제1 이미지 좌표와 제2 카메라(110)의 획득 영상에 대한 제2 이미지 좌표는 서로 다른 값을 갖는다.
탄착점에 대한 하나의 이미지 좌표에 란삭(RANSAC) 알고리즘을 통해 획득된 행렬을 적용할 경우 탄착점의 실좌표가 획득 될 수 있다.
그러나 하나의 이미지 좌표에 대하여 란삭 알고리즘을 이용하여 획득된 실좌표는 란삭 알고리즘이 이차원 평면을 가정하기 때문에 오차가 발생할 수 있다.
또한 도 6에 도시된 것과 같이 카메라의 촬영 각도에 따라 획득되는 영상에도 차이가 발생하기 때문에 한대의 카메라에서 획득한 영상의 이미지 좌표만을 가지고 탄착점의 위치를 산출하는 것은 오차가 발생할 수 있다.
본 발명은 이러한 오차의 발생을 줄이고, 정확한 탄착점의 위치를 산출하기 위하여 적어도 두 대의 카메라에서 획득한 영상을 이용한다. 본 명세서에서는 두 대의 카메라를 이용하고 있지만 본 발명은 이에 한정되지 않는다. 얼마든지 더 많은 카메라를 이용하는 경우에도 본 발명의 적용이 가능하다.
탄착점 위치 판단 장치(300)는 제1, 2 이미지 좌표에 기초하여 탄착점(P)의 위치를 판단 한다. 탄착점 위치 판단 장치(300)의 동작에 대하여는 이하에서 상세하게 설명하겠다.
도 7는 본 발명의 실시예에 따른 탄착점 위치 산출 장치의 블록도이다.
본 발명의 실시예에 따른 탄착점 위치 산출 장치(300)는 수신부(310), 제어부(320) 및 출력부(330)을 포함한다. 그러나 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 탄착점 위치 산출 장치(300)가 구현될 수도 있다.
본 발명의 실시예에 따른 수신부(310)는 각각의 카메라(100, 110)에서 획득한 각각의 영상을 수신한다.
본 발명의 실시예에 따른 제어부(320)는 탄착점 위치 산출 장치(300)의 전반적인 동작을 제어한다.
본 발명의 실시예에 따른 제어부(320)는 수신된 각각의 영상에 기초하여 각각의 이미지 좌표를 생성한다. 또한 제어부(320)는 생성된 각각의 이미지 좌표를 실 좌표로 변환한다. 제어부(320)는 이미지 좌표를 실좌표로 변환함에 있어서, 각각의 변환 행렬에 기초할 수도 있다.
제어부(320)는 각각의 변환 행렬을 생성할 수 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제1 카메라(100)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제1 변환 행렬을 생성할 수도 있다. 제어부(320)는 기준점(R1 내지 R5)의 실좌표 및 제2 카메라(110)에서 획득되는 영상에서의 기준점(R1 내지 R5)의 이미지 좌표를 파라미터로 하여 란삭(RANSAC) 알고리즘을 통해 제2 변환 행렬을 생성할 수도 있다. 여기서 기준점(R1 내지 R5)의 실좌표는 GPS 등의 별도의 장치를 통해 미리 구해질 수 있다.
본 발명의 실시예에 따른 실좌표는 해당 지점의 실제 좌표일 수 있다. 실좌표는 GPS 또는 기타 별도의 측정장치를 통해 획득될 수도 있다. 본 발명의 실시예에 따르면 실좌표는 이미지 좌표에 특정 행렬을 적용시켜 획득될 수도 있다.
본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력할 수 있다. 본 발명의 실시예에 따른 출력부(330)는 디스플레이장치 또는 프린터 등의 인쇄장치 일 수 있다. 본 발명의 실시예에 따른 출력부(330)는 제어부(320)의 제어를 받아 탄착점의 위치를 평가표에 표시하여 출력할 수 있다.
다음은 도 8 및 도 9를 참조하여 본 발명의 실시예에 따른 탄착점 위치 산출 방법에 대하여 설명한다.
도 8은 본 발명의 실시예에 따른 탄착점 위치 산출 방법의 흐름도이다.
수신부(310)는 각각의 서버(200, 210)으로부터 탄착점(P)에 대한 각각의 이미지 좌표를 수신한다(S101).
제어부(320)는 수신된 각각의 이미지 좌표를 각각의 변환 행렬로 변환하여 각각의 실좌표를 획득한다(S103). 변환 행렬은 미리 계산되어 있을 수도 있다. 또한 별도의 저장부(미도시)에 저장되어 있을 수도 있다. 본 발명의 실시예에 따른 변환 행렬은 기준점(R1 내지 R5)의 실좌표 및 카메라에서 획득한 영상에서의 기준점(R1 내지 R5)의 이미지 좌표 즉 10개의 좌표를 파라미터로 하여 계산된다. 제어부(320)는 10개의 좌표 및 란삭(RANSAC) 알고리즘을 이용하여 변환 행렬을 생성한다.
제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제1 카메라(100)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제1 변환 행렬을 생성한다.
제어부(320)는 각각의 기준점(R1 내지 R5)의 실좌표 5개 및 제2 카메라(110)에서 획득한 영상에서의 각각의 기준점(R1 내지 R5)의 이미지 좌표 5개를 파라미터로 하여 제2 변환 행렬을 생성한다.
제어부(320)는 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출한다. 또한 제어부(320)는 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출한다.
제어부(320)는 획득한 실좌표간의 거리가 소정의 수치 이상 인지 여부를 판단한다(S105). 즉 제어부(320)는 제1 실좌표 및 제2 실좌표간의 거리가 소정의 수치 이상인지 여부를 판단한다. 제1 실좌표와 제2 실좌표는 같은 탄착점에 대한 좌표이지만 다른 값을 갖을 수 있다. 그것은 제1 카메라(100)와 제2 카메라(110)간의 설치 위치가 다르기 때문에 각 카메라(100, 110)가 획득하는 영상이 서로 다르고, 각각의 영상에서의 탄착점에 대한 각각의 이미지 좌표도 서로 다르기 때문에, 서로 다른 이미지 좌표에 기초하여 산출된 실좌표도 서로 다를 수 있다.
획득한 실좌표간의 거리가 소정의 수치 이상인 경우, 제어부(320)는 산출 오류라고 판단한다(S107). 위의 설명과 마찬 가지로 제1 실좌표와 제2 실좌표는 다를 수 있다. 그러나 제1 실좌표와 제2 실좌표는 같은 지점에 대한 좌표인 만큼, 실좌표 상호간의 거리가 크지 않아야 정확하게 산출된 것으로 볼 수 있다. 따라서 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 탄착점 위치 산출 장치(300)의 동작 오류라고 판단한다. 여기서 제1 실좌표와 제2 실좌표간의 거리는 제1 실좌표와 제2 실좌표간의 가로거리를 말할 수도 있다. 그러나 본 발명은 이에 한정되지 않고, 다른 의미의 거리에도 본 발명의 적용이 가능하다.
본 발명의 실시예에 따르면 제어부(320)는 제1 실좌표와 제2 실좌표간의 거리가 소정의 거리 이상인 경우, 제1 실좌표와 제2 실좌표는 상호간 다른 탄착점에 대한 실좌표라고 판단할 수도 있다.
획득한 실좌표간의 거리가 소정의 수치 이하인 경우, 제어부(320)는 각각의 이미지 좌표에 기초하여 탄착점의 위치를 산출한다(S109). 본 발명의 실시예에 따른 제어부(320)는 제1 카메라(100)에서 제1 이미지 좌표로 투영된 점과 제2 카메라(110)에서 제2 이미지 좌표로 투영된 점을 삼각 측량하여 탄착점의 위치를 산출한다. 또한 제어부(320)는 산출 결과에 따라 탄착점이 중심점(R5)으로부터 얼마간 떨어져 있는지 판단할 수도 있다.
출력부(330)는 산출된 탄착점의 위치를 평가표에 표시하여 출력한다(S111).
도 10은 본 발명의 실시예에 따른 평가표에 탄착점이 표시된 것을 나타낸 도면이다. 본 발명의 실시예에 따른 출력부(330)는 산출된 탄착점의 위치에 대응되는 지점을 평가표에 표시하여 출력할 수도 있다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 제1 카메라
110: 제2 카메라
200: 제1 서버
210: 제2 서버
300: 탄착점 위치 산출 장치
310: 수신부
320: 제어부
330: 출력부

Claims (18)

  1. 탄착점 주변에 대한 영상을 각각 획득하는 제1, 2 카메라;
    상기 제1 카메라가 획득한 영상에서 탄착점의 제1 이미지 좌표를 생성하는 제1 서버;
    상기 제2 카메라가 획득한 영상에서 탄착점의 제2 이미지 좌표를 생성하는 제2 서버; 및
    상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 위치 산출 장치를 포함하고,
    상기 위치 산출 장치는
    상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하되,
    상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
    상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 시스템.
  2. 제1항에 있어서,
    상기 위치 산출 장치는 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.
  3. 제1항에 있어서,
    상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
    상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 시스템.
  4. 제1항에 있어서,
    상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 탄착점 위치 산출 시스템.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 시스템.
  8. 제1항에 있어서,
    상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 시스템.
  9. 제1항에 있어서,
    상기 위치 산출 장치는 상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 시스템.
  10. 제1, 2 카메라 각각에 의하여 탄착점에 대한 각각의 영상을 획득하는 단계;
    제1 서버 및 제2 서버 각각이 상기 제1, 2 카메라가 획득한 각각의 영상에서 탄착점에 대한 각각의 제1 이미지 좌표 및 제2 이미지 좌표를 생성하는 단계; 및
    위치 산출 장치가 상기 제1 이미지 좌표 및 상기 제2 이미지 좌표에 기초하여 상기 탄착점의 위치를 산출하는 단계를 포함하고,
    상기 탄착점의 위치를 산출하는 단계는,
    상기 제1 이미지 좌표를 제1 변환 행렬을 통해 제1 실좌표로 산출하고, 상기 제2 이미지 좌표를 제2 변환 행렬을 통해 제2 실좌표로 산출하는 단계를 더 포함하고,
    상기 제1 변환 행렬은 5개의 기준점에 대한 실좌표 및 상기 제1 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되고,
    상기 제2 변환 행렬은 5개의 기준점에 대한 실좌표와 상기 제2 카메라의 영상에서 상기 5개의 기준점에 대한 이미지 좌표를 파라미터로 하여 란삭알고리즘을 통해 산출되는 탄착점 위치 산출 방법.
  11. 제10항에 있어서,
    상기 탄착점의 위치를 산출하는 단계는
    상기 제1 카메라로부터 상기 제1 이미지 좌표로 투영된 지점과, 상기 제2 카메라로부터 상기 제2 이미지 좌표로 투영된 지점을 삼각 측량하여 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.
  12. 제10항에 있어서,
    상기 제1 이미지 좌표는 상기 제1 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표이고,
    상기 제2 이미지 좌표는 상기 제2 카메라가 획득한 영상의 특정 지점에서 탄착점까지의 가로 세로 좌표인 탄착점 위치 산출 방법.
  13. 제10항에 있어서,
    상기 위치 산출 장치는 산출된 탄착점의 위치를 평가표에 표시하여 출력하는 단계를 더 포함하는 탄착점 위치 산출 방법.
  14. 삭제
  15. 삭제
  16. 제10항에 있어서,
    상기 탄착점의 위치를 산출하는 단계는
    상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 동작 이상이라고 판단하는 탄착점 위치 산출 방법.
  17. 제10항에 있어서,
    상기 탄착점의 위치를 산출하는 단계는
    상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 이상인 경우, 상기 제1 실좌표와 상기 제2 실좌표가 서로 다른 탄착점에 기초한다고 판단하는 탄착점 위치 산출 방법.
  18. 제10항에 있어서,
    상기 탄착점의 위치를 산출하는 단계는
    상기 제1 실좌표와 상기 제2 실좌표간의 거리가 소정의 수치 미만인 경우에만, 상기 탄착점의 위치를 산출하는 탄착점 위치 산출 방법.
KR1020140141601A 2014-10-20 2014-10-20 탄착점 위치 산출 시스템 및 방법 KR101624416B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140141601A KR101624416B1 (ko) 2014-10-20 2014-10-20 탄착점 위치 산출 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140141601A KR101624416B1 (ko) 2014-10-20 2014-10-20 탄착점 위치 산출 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20160046352A KR20160046352A (ko) 2016-04-29
KR101624416B1 true KR101624416B1 (ko) 2016-05-25

Family

ID=55915536

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140141601A KR101624416B1 (ko) 2014-10-20 2014-10-20 탄착점 위치 산출 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101624416B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059767B1 (ko) 2019-01-02 2019-12-26 동서대학교 산학협력단 비비탄용 사격 시스템의 탄착점 추출 방법
KR20210068930A (ko) 2019-12-02 2021-06-10 한화디펜스 주식회사 원격무장 장치
KR20230123297A (ko) 2022-02-16 2023-08-23 엘아이지넥스원 주식회사 영상 정보를 이용한 유도 비행체와 이동 표적의 탄착 위치 추출 시스템 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167038B (zh) * 2017-04-14 2018-07-31 华中科技大学 一种基于机器视觉提高报靶精度的方法
DE102018218407A1 (de) * 2018-10-26 2020-04-30 Ke Knestel Elektronik Gmbh Zieleinrichtung und Verfahren zur Erfassung einer Geschossposition
KR102151340B1 (ko) * 2019-01-02 2020-10-26 동서대학교 산학협력단 비비탄용 사격 시스템의 탄착점 검출 방법
TWI720447B (zh) * 2019-03-28 2021-03-01 財團法人工業技術研究院 影像定位方法及其系統

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140091843A (ko) 2013-01-14 2014-07-23 류지윤 군용 곡사포탄에 탑재된 gps로부터 송신되는 위치정보 수신을 통한 탄착지점 산출

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059767B1 (ko) 2019-01-02 2019-12-26 동서대학교 산학협력단 비비탄용 사격 시스템의 탄착점 추출 방법
KR20210068930A (ko) 2019-12-02 2021-06-10 한화디펜스 주식회사 원격무장 장치
KR20230123297A (ko) 2022-02-16 2023-08-23 엘아이지넥스원 주식회사 영상 정보를 이용한 유도 비행체와 이동 표적의 탄착 위치 추출 시스템 및 방법

Also Published As

Publication number Publication date
KR20160046352A (ko) 2016-04-29

Similar Documents

Publication Publication Date Title
KR101624416B1 (ko) 탄착점 위치 산출 시스템 및 방법
CN106550228B (zh) 获取三维场景的深度图的设备
WO2018025115A3 (en) Method and system for calibrating components of an inertial measurement unit (imu) using scene-captured data
KR102149276B1 (ko) 영상 정합 방법
US20150254853A1 (en) Calibration method and calibration device
US20150279016A1 (en) Image processing method and apparatus for calibrating depth of depth sensor
CN105160663A (zh) 获取深度图像的方法和系统
JP2013213769A5 (ko)
RU2020109861A (ru) Оборудование и способ для формирования представления сцены
IL300597A (en) Systems and methods for eye examination
JP6164679B2 (ja) カメラのキャリブレーション方法及びカメラのキャリブレーション装置
KR102255017B1 (ko) 시간 코딩된 패턴 타겟을 사용하여 적어도 하나의 센서 카메라를 포함하는 이미지 캡처 센서를 캘리브레이션하는 방법
US20180095549A1 (en) Detection method and detection apparatus for detecting three-dimensional position of object
JP2014006179A (ja) ステレオカメラキャリブレーション装置及び方法、並びに距離測定装置
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
KR20160077684A (ko) 객체 추적 장치 및 방법
WO2015152691A3 (ko) 차량 주변 이미지 생성 장치 및 방법
CN104061876A (zh) 基于数字图像测量原理的建筑模板施工监测系统
US20190108673A1 (en) Image projection method and image projection device for three-dimensional object for projection
CN108036730B (zh) 一种基于热成像的火点测距方法
CN110595275A (zh) 一种基于数字图像的校炮装置及其方法
US10775881B1 (en) High assurance head tracker monitoring and calibration
JP5991821B2 (ja) 写真測量装置
CN111698467B (zh) 基于多摄像机的智能跟踪方法及系统
CN104121892A (zh) 一种获取光枪射击的目标位置的方法、装置及系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190521

Year of fee payment: 4