KR101821992B1 - 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치 - Google Patents

무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치 Download PDF

Info

Publication number
KR101821992B1
KR101821992B1 KR1020160106095A KR20160106095A KR101821992B1 KR 101821992 B1 KR101821992 B1 KR 101821992B1 KR 1020160106095 A KR1020160106095 A KR 1020160106095A KR 20160106095 A KR20160106095 A KR 20160106095A KR 101821992 B1 KR101821992 B1 KR 101821992B1
Authority
KR
South Korea
Prior art keywords
target
calculating
coordinates
straight line
unmanned aerial
Prior art date
Application number
KR1020160106095A
Other languages
English (en)
Inventor
김재훈
최광훈
김민국
윤현경
Original Assignee
아주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교 산학협력단 filed Critical 아주대학교 산학협력단
Priority to KR1020160106095A priority Critical patent/KR101821992B1/ko
Application granted granted Critical
Publication of KR101821992B1 publication Critical patent/KR101821992B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • G01C11/34Aerial triangulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G01C2011/36

Abstract

무인비행체를 이용한 목표물의 3차원 위치 산출 방법을 제공한다. 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 방법은 제1 무인비행체 및 제2 무인비행체로부터 상기 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 상기 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신하는 단계; 상기 제1 목표물정보에 기초하여, 상기 제1 무인비행체와 상기 목표물 간을 연결하는 제1 직선을 산출하는 단계; 상기 제2 목표물정보에 기초하여, 상기 제2 무인비행체와 상기 목표물 간을 연결하는 제2 직선을 산출하는 단계; 및 상기 제1 직선 및 상기 제2 직선을 이용하여, 상기 목표물의 3차원 좌표인 목표물좌표를 산출하는 단계를 포함한다.

Description

무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치{METHOD AND APPARATUS FOR COMPUTING 3D POSITION OF TARGET USING UNMANNED AERIAL VEHICLES}
본 발명은 무인비행체를 이용하여 목표물의 3차원 위치를 산출하는 방법 및 장치에 관한 것으로, 보다 구체적으로는, 복수의 무인비행체를 이용하여 목표물의 3차원 위치를 평탄하지 않은 지형 및 공중에서도 정확하게 산출하는 방법 및 장치에 관한 것이다.
GPS, 자이로스코프(gyroscope), 가속도계(accelerometer) 및 WIFI footprint 등 다양한 디바이스를 사용하여 위치를 측정하는 방법이 연구되어 왔다. 또한, 스테레오 카메라, 레이저포인터 등을 이용하여 자신의 위치를 기준으로 목표물의 위치를 측정하는 방법도 연구되어 왔다.
특히, 종래의 무인비행체를 이용한 목표물의 위치 산출 방법은, 목표물이 지상의 지표면에 있는 것을 가정하였고, 또 그 지표면은 평면이라는 제약 조건이 있었다. 그러나, 실제의 환경에서는, 목표물이 공중(예, 건물 옥상, 산 정상)에 위치할 수 있으며, 그 지표면이 평면이 아닌 굴곡이 있는 지형인 경우가 다수이다. 즉, 종래의 무인비행체를 이용한 목표물의 위치 산출 방법은 목표물의 2차원 위치를 산출하는데 그쳤으며, 굴곡이 있는 지형과 같은 실제의 환경에 적용하는 것 또한 쉽지 않았다.
따라서, 굴곡이 있는 지표면에 위치하거나 또는 공중에 위치한 목표물의 3차원 위치를 측정하는 방법 및 장치의 필요성이 대두되고 있다.
관련 선행기술로는 대한민국 등록특허공보 제 10-1614654호(발명의 명칭: 단일 카메라가 장착된 드론을 이용한 추적 객체 위치 판별 방법, 공개일자: 2016년 4월 15일)가 있다.
본 발명의 목적은 복수의 무인비행체를 이용하여 목표물의 3차원 위치를 산출하는 방법 및 장치를 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 방법은 제1 무인비행체 및 제2 무인비행체로부터 상기 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 상기 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신하는 단계; 상기 제1 목표물정보에 기초하여, 상기 제1 무인비행체와 상기 목표물 간을 연결하는 제1 직선을 산출하는 단계; 상기 제2 목표물정보에 기초하여, 상기 제2 무인비행체와 상기 목표물 간을 연결하는 제2 직선을 산출하는 단계; 및 상기 제1 직선 및 상기 제2 직선을 이용하여, 상기 목표물의 3차원 좌표인 목표물좌표를 산출하는 단계를 포함한다.
바람직하게는, 상기 목표물좌표를 산출하는 단계는 상기 제1 직선과 상기 제2 직선 간의 거리가 최소가 되도록 하는 상기 제1 직선 및 상기 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출하는 단계; 및 상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출하는 단계를 포함할 수 있다.
바람직하게는, 상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출하는 단계는 상기 제1 최소거리좌표와 상기 제2 최소거리좌표 간을 연결하는 선분의 중심점을 상기 목표물좌표로서 산출할 수 있다.
바람직하게는, 상기 목표물좌표를 산출하는 단계는 상기 제1 직선과 상기 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 산출할 수 있다.
바람직하게는, 상기 방향벡터는 상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 자이로센서를 이용하여 상기 제1 무인비행체 및 상기 제2 무인비행체가 향하고 있는 제1 초기방향 및 제2 초기방향을 측정하는 단계; 상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 제1 카메라 및 제2 카메라를 이용하여 지면을 촬영한 제1 이미지 및 제2 이미지 각각으로부터 상기 목표물의 위치를 인식하는 단계; 상기 제1 무인비행체의 3차원 좌표인 제1 비행체좌표, 상기 제1 초기방향, 상기 제1 이미지 상의 상기 목표물의 위치 및 상기 제1 카메라의 화각에 기초하여 상기 제1 방향벡터를 산출하는 단계; 및 상기 제2 무인비행체의 3차원 좌표인 제2 비행체좌표, 상기 제2 초기방향, 상기 제2 이미지 상의 상기 목표물의 위치 및 상기 제2 카메라의 화각에 기초하여 상기 제2 방향벡터를 산출하는 단계를 통해 산출될 수 있다.
바람직하게는, 임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 상기 목표물의 이동 속도인 목표물속도를 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 목표물속도를 산출하는 단계는 상기 제1 시각에서, 상기 제2 목표물정보를 수신하는 단계, 상기 제1 직선을 산출하는 단계, 상기 제2 직선을 산출하는 단계 및 상기 목표물좌표를 산출하는 단계를 수행하여 제1 목표물좌표를 산출하는 단계; 상기 제2 시각에서, 상기 제2 목표물정보를 수신하는 단계, 상기 제1 직선을 산출하는 단계, 상기 제2 직선을 산출하는 단계 및 상기 목표물좌표를 산출하는 단계를 수행하여 제2 목표물좌표를 산출하는 단계; 및 상기 제1 시각과 상기 제2 시각 간의 시간 간격, 상기 제1 목표물좌표 및 상기 제2 목표물좌표를 이용하여 상기 목표물속도를 산출하는 단계를 포함할 수 있다.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 장치는 제1 무인비행체 및 제2 무인비행체로부터 상기 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 상기 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신하는 수신부; 및 상기 제1 목표물정보에 기초하여, 상기 제1 무인비행체와 상기 목표물 간을 연결하는 제1 직선을 산출하고, 상기 제2 목표물정보에 기초하여, 상기 제2 무인비행체와 상기 목표물 간을 연결하는 제2 직선을 산출하는 연산부를 포함하고, 상기 연산부는 상기 제1 직선 및 상기 제2 직선을 이용하여, 상기 목표물의 3차원 좌표인 목표물좌표를 더 산출한다..
바람직하게는, 상기 연산부는 상기 제1 직선과 상기 제2 직선 간의 거리가 최소가 되도록 하는 상기 제1 직선 및 상기 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출하고, 상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출할 수 있다.
바람직하게는, 상기 연산부는 상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출할 때, 상기 제1 최소거리좌표와 상기 제2 최소거리좌표 간을 연결하는 선분의 중심점을 상기 목표물좌표로서 산출할 수 있다.
바람직하게는, 상기 연산부는 상기 제1 직선과 상기 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 상기 목표물좌표를 산출할 수 있다.
바람직하게는, 상기 방향벡터는 상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 자이로센서를 이용하여 상기 제1 무인비행체 및 상기 제2 무인비행체가 향하고 있는 제1 초기방향 및 제2 초기방향을 측정하고, 상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 제1 카메라 및 제2 카메라를 이용하여 지면을 촬영한 제1 이미지 및 제2 이미지 각각으로부터 상기 목표물의 위치를 인식하였을 때, 상기 제1 무인비행체의 3차원 좌표인 제1 비행체좌표, 상기 제1 초기방향, 상기 제1 이미지 상의 상기 목표물의 위치 및 상기 제1 카메라의 화각에 기초하여 제1 방향벡터가 산출되고, 상기 제2 무인비행체의 3차원 좌표인 제2 비행체좌표, 상기 제2 초기방향, 상기 제2 이미지 상의 상기 목표물의 위치 및 상기 제2 카메라의 화각에 기초하여 제2 방향벡터가 산출될 수 있다.
바람직하게는, 상기 연산부는 임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 상기 목표물의 이동 속도인 목표물속도를 더 산출할 수 있다.
바람직하게는, 상기 연산부는 상기 목표물속도를 더 산출할 때, 상기 제1 시각에서, 상기 수신부가 수신한 제1 목표물정보를 이용하여, 제1 목표물좌표를 산출하고, 상기 제2 시각에서, 상기 수신부가 수신한 제2 목표물정보를 이용하여, 제2 목표물좌표를 산출하고, 상기 제1 시각과 상기 제2 시각 간의 시간 간격, 상기 제1 목표물좌표 및 상기 제2 목표물좌표를 이용하여 상기 목표물속도를 산출할 수 있다.
바람직하게는, 상기 무인비행체를 이용한 목표물의 3차원 위치 산출 장치는 상기 제1 무인비행체 및 상기 제2 무인비행체와 연결되는 외부 장치, 상기 제1 무인비행체 또는 상기 제2 무인비행체에 탑재될 수 있다.
본 발명은 복수의 무인비행체를 이용하여 굴곡이 있는 지형 위에 위치하거나 또는 공중에 위치한 목표물의 3차원 위치를 보다 정확하게 산출할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 방법을 설명하기 위하여 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 무인비행체의 방향벡터 산출 방법을 설명하기 위하여 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 속도 산출 방법을 설명하기 위하여 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 장치를 설명하기 위하여 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 장치를 설명하기 위하여 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 2대의 무인비행체를 이용하여 목표물의 3차원 위치를 산출하는 방법을 설명하기 위하여 도시한 도면이다.
도 7a 및 7b는 본 발명의 일 실시예에 따른 무인비행체에 탑재된 카메라를 이용하여 무인비행체로부터 목표물을 향하는 방향벡터를 산출하는 방법을 설명하기 위하여 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 방법을 설명하기 위하여 도시한 흐름도이다.
단계 S110에서는, 위치 산출 장치가 제1 무인비행체 및 제2 무인비행체로부터 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 그 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신한다.
무인비행체(unmanned aerial vehicle, UAV)는 조종사가 탑승하지 않고 지정된 임무를 수행하도록 제작된 비행체를 의미한다. 한편, 무인비행체는 드론, 쿼드콥터, 멀티콥터, 무인비행기, 무인항공기 또는 무인기일 수 있다.
이때, 위치 산출 장치는 제1 무인비행체 및 제2 무인비행체 각각으로부터 제1 목표물정보 및 제2 목표물정보를 수신할 수 있다. 한편, 목표물정보에 포함된 비행체좌표는 각 무인비행체에 탑재된 GPS를 통해 수신된 3차원 좌표일 수 있으며, 방향벡터는 각 무인비행체의 중심으로부터 목표물의 중심을 향하는 방향과 평행한 방향의 3차원 벡터를 의미할 수 있다.
단계 S120에서는, 위치 산출 장치가 제1 목표물정보에 기초하여, 제1 무인비행체와 목표물 간을 연결하는 제1 직선을 산출한다.
일반적으로, 3차원 공간 상에서 어느 한 점을 지나면서 특정한 방향벡터와 평행한 직선은 하나로 특정될 수 있다. 따라서, 위치 산출 장치가 3차원 공간 상에서 제1 무인비행체의 비행체좌표를 지나면서, 그 제1 무인비행체의 방향벡터와 평행한 방향을 향하는 직선을 제1 직선으로 산출할 수 있다.
이때, 제1 무인비행체의 비행체좌표 (x1, y1, z1)을 지나면서 방향벡터 (l1, m1, n1)과 평행한 제1 직선은 수학식 1에 의해 산출될 수 있다.
[수학식 1]
Figure 112016081252627-pat00001
단계 S130에서는, 위치 산출 장치가 제2 목표물정보에 기초하여, 제2 무인비행체와 목표물 간을 연결하는 제2 직선을 산출한다.
제1 무인비행체와 마찬가지로, 위치 산출 장치가 제2 목표물정보에 포함된 비행체좌표와 방향벡터를 이용하여 제2 직선을 산출할 수 있다.
이때, 제2 무인비행체의 비행체좌표 (x2, y2, z2)를 지나면서 방향벡터 (l2, m2, n2)와 평행한 제2 직선은 수학식 2에 의해 산출될 수 있다.
[수학식 2]
Figure 112016081252627-pat00002
마지막으로 단계 S140에서는, 위치 산출 장치가 산출된 제1 직선 및 제2 직선을 이용하여, 목표물의 3차원 좌표인 목표물좌표를 산출한다.
예컨대, 도 6을 참조하면, 위치 산출 장치가 제1 무인비행체(610)에 대하여 산출된 제1 직선(640) 및 제2 무인비행체(620)에 대하여 산출된 제2 직선(645)를 이용하여 목표물(630)의 목표물좌표를 산출할 수 있다. 즉, 위치 산출 장치가 수학식 1 및 수학식 2의 교점을 산출함으로써, 목표물(630)의 3차원 좌표를 산출할 수 있다.
한편, 위치 산출 장치가 목표물좌표를 산출하는 방법에 대한 자세한 설명은 다른 실시예에 대한 설명에서 구체적으로 후술한다.
다른 실시예에서는, 위치 산출 장치가 제1 직선과 제2 직선 간의 거리에 기초하여 목표물좌표를 산출할 수 있다.
만일, 위치 산출 장치가 제1 직선 및 제2 직선을 산출하는 과정에서 어떠한 오차도 개입되지 않았다면, 목표물좌표는 제1 직선과 제2 직선 간의 교점으로 정확하게 결정될 수 있다. 그러나, 현실적으로, 제1 직선과 제2 직선을 산출하는 과정에서 비행체좌표 및 방향벡터 중 적어도 하나에 측정 오차가 개입될 수 있기 때문에, 제1 직선과 제2 직선 간의 교점이 존재하지 않을 가능성이 있다.
한편, 이 경우에는 위치 산출 장치가 제1 직선과 제2 직선 간의 거리를 이용하여 다음과 같이 목표물좌표를 산출할 수 있다.
첫번째로, 위치 산출 장치가 제1 직선과 제2 직선 간의 거리가 최소가 되도록 하는 제1 직선 및 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출한다.
이때, 제1 직선과 제2 직선 간의 거리는 제1 직선 상의 어느 한 점과 제2 직선 상의 어느 한 점 간의 거리를 의미한다. 또한, 그 거리가 최소가 되는 것은 제1 직선 상의 모든 점과 제2 직선 상의 모든 점 간의 거리를 각각 산출하였을 때, 그 중에서 산출된 거리가 최소가 되는 것을 의미할 수 있다.
한편, 제1 직선과 제2 직선이 평행한 경우에는 제1 직선과 제2 직선 간의 거리가 최소가 되는 제1 최소거리좌표 및 제2 최소거리좌표가 무수히 많이 존재할 수 있으며, 이때는 위치 산출 장치가 그 중에서 임의로 제1 최소거리좌표 및 제2 최소거리좌표로 산출할 수 있다.
두번째로, 위치 산출 장치가 그 제1 최소거리좌표 및 제2 최소거리좌표를 이용하여 목표물좌표를 산출한다.
예컨대, 위치 산출 장치는 그 제1 최소거리좌표와 제2 최소거리좌표 간을 연결하는 선분의 중심점을 목표물좌표로서 산출할 수 있다.
이때, 목표물좌표는 수학식 3에 의해 산출될 수 있다.
[수학식 3]
Figure 112016081252627-pat00003
여기서, (xt, yt, zt)는 목표물좌표이고, (x1, y1, z1)은 제1 최소거리좌표이고, (x2, y2, z2)는 제2 최소거리좌표이다.
또 다른 실시예에서는, 위치 산출 장치가 제1 직선과 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 목표물좌표를 산출할 수 있다.
예컨대, 위치 산출 장치가 제1 직선 및 제2 직선을 산출하는 과정에서 큰 오차가 발생한 경우, 제1 직선과 제2 직선 간의 거리의 최소값이 비례하여 커질 수 있다. 이런 경우에도, 만일 위치 산출 장치가 제1 최소거리좌표와 제2 최소거리좌표의 중간값으로 목표물좌표로서 산출한다면, 그 목표물좌표는 부정확한 좌표가 될 가능성이 높다.
따라서, 위치 산출 장치가 제1 직선과 제2 직선 간의 거리의 최소값이 임계거리 이하인 경우에만, 목표물좌표를 산출할 수 있다. 이때, 거리의 최소값이 임계거리를 초과하는 경우에는, 위치 산출 장치가 목표물좌표를 산출하지 않을 수 있다.
또 다른 실시예에서는, 위치 산출 장치가 임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 목표물의 이동 속도인 목표물속도를 산출할 수 있다.
즉, 위치 산출 장치는 제1 시각에서 제1 목표물좌표를 산출하고, 제2 시각에서 제2 목표물좌표를 산출하여, 그 목표물이 제1 시각에서 제2시각동안 이동한 속도인 목표물속도를 산출할 수 있다.
한편, 위치 산출 장치가 목표물속도를 산출하는 자세한 방법에 대하여는 도 3에 대한 설명에서 구체적으로 후술한다.
이와 같이, 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 방법은, 위치 산출 장치가 2대의 무인비행체를 이용하여 굴곡이 있는 지형 위에 위치하거나 또는 공중에 위치한 목표물의 3차원 위치를 정확하게 산출할 수 있는 효과가 있다.
도 2는 본 발명의 일 실시예에 따른 무인비행체의 방향벡터 산출 방법을 설명하기 위하여 도시한 흐름도이다.
한편, 도 2에서 설명하는 방향벡터 산출 방법은 본 발명의 제1 무인비행체 및 제2 무인비행체가 각각의 대응되는 방향벡터인 제1 방향벡터 및 제2 방향벡터를 산출할 때 적용될 수 있다.
단계 S210에서는, 무인비행체가 그 무인비행체에 탑재된 자이로센서를 이용하여 그 무인비행체가 향하고 있는 초기방향을 측정한다.
자이로센서(gyro sensor)는 물체의 방위 변화를 측정하기 위한 센서로, 항공기, 함정, 유도 무기, 차량 등 다양한 분야에서 항법용, 자세 제어용 등으로 사용되고 있다.
예컨대, 무인비행체는 내부에 탑재된 자이로센서를 이용하여 소정의 기준방향을 중심으로 그 무인비행체가 향하고 있는 3차원의 방향을 측정할 수 있으며, 그 측정된 방향을 초기방향으로 결정할 수 있다.
단계 S220에서는, 무인비행체가 그 무인비행체에 탑재된 카메라를 이용하여 지면을 촬영한 이미지로부터 목표물의 위치를 인식한다.
예컨대, 도 7a 및 7b를 참조하면, 그 무인비행체(610)에 탑재된 카메라가 위에서 아래쪽 방향으로 카메라의 화각에 대응되는 지면의 영역(710)을 촬영한 후, 그 무인비행체(610)가 그 영역(710)에 대응되는 촬영 이미지로부터 목표물(630)의 위치를 인식할 수 있다.
이때, 무인비행체(610)에 의한 목표물(630)의 인식은 DB에 미리 등록된 목표물의 모양 및 색상 중 적어도 하나에 기초하여 수행될 수 있다.
마지막으로 단계 S230에서는, 무인비행체가 그 무인비행체의 3차원 좌표인 비행체좌표, 초기방향, 이미지 상의 목표물의 위치 및 카메라의 화각에 기초하여 방향벡터를 산출한다.
도 7a 및 7b를 참조하면, 방향벡터는 그 무인비행체(610)로부터 목표물(630)로 향하는 방향에 평행한 벡터이다. 따라서, 그 무인비행체(610)는 자신의 비행체좌표를 알고 있기 때문에, 목표물(630)의 가상좌표를 산출함으로써, 그 가상좌표와 비행체좌표 간의 방향벡터를 산출할 수 있다.
이때, 목표물(630)의 가상좌표는 목표물(630)의 실제 좌표가 아닌, 목표물(630)이 무인비행체(610)의 고도를 계산하는 기준이 되는 가상의 지면(예, GPS좌표가 기준으로 하는 WGS84 타원체)에 위치하는 경우의 좌표일 수 있다.
또한, 목표물(630)의 가상좌표를 이용하여 방향벡터를 산출할 수 있는 것은, 방향벡터가 비행체좌표와 목표물(630)의 좌표 간의 방향에 의해서만 결정되기 때문이다. 즉, 그 무인비행체(610)가 목표물(630)의 정확한 실제 좌표는 알지 못해도, 그 무인비행체(610)와 목표물(630)을 연결하는 직선 상의 임의의 한 점의 좌표만 알면 그 좌표를 가상좌표로 하여 방향벡터를 산출할 수 있다.
예컨대, 그 무인비행체(610)의 고도를 h라고 하고, 카메라의 가로 방향 화각을 θ1이라고 할 때, 그 촬영된 이미지의 가로 방향 거리는 아래의 수학식 4를 이용하여 산출될 수 있다. 이때, 목표물(630)이 위치한 지면(740)은 실제의 지면이 아닌 그 무인비행체(610)의 고도를 계산하는 기준이 되는 가상의 지면일 수 있으며, 목표물(630)의 좌표 역시 그 가상의 지면에 위치한 가상좌표일 수 있다. 이때, 목표물(630)의 실제 좌표는 그 무인비행체(610)와 목표물(630)을 연결하는 직선 상의 특정한 위치일 수 있다.
[수학식 4]
Figure 112016081252627-pat00004
여기서, X는 그 촬영된 이미지의 가로 방향 거리이고, h는 그 무인비행체(610)의 고도이고, θ1은 카메라의 가로 방향 화각이다.
또한, 그 촬영된 이미지의 세로 방향 거리는 아래의 수학식 5를 이용하여 산출될 수 있다.
[수학식 5]
Figure 112016081252627-pat00005
여기서, Y는 그 촬영된 이미지의 세로 방향 거리이고, h는 그 무인비행체(610)의 고도이고, θ2는 카메라의 세로 방향 화각이다.
그리고, 그 무인비행체(610)는 촬영된 이미지 상에서, 그 무인비행체(610)의 위치를 원점 (0,0)으로 하는 목표물(630)이 인식된 좌표(즉, 720 및 730의 픽셀수에 따른 좌표), 수학식 4 및 수학식 5를 이용하여, 그 무인비행체(610)로부터 목표물(630)의 가상좌표까지의 상대적인 거리를 비례식으로 산출할 수 있다.
예컨대, 촬영된 이미지 크기가 1024x768이고, 목표물(630)이 (288, 200) 좌표에서 인식되었다면, 가로 방향의 상대적인 거리 dx는 512 : 288 = X/2 : dx의 비례식으로부터 산출될 수 있다. 마찬가지로, 세로 방향의 상대적인 거리 dy는 384 : 200 = Y/2 : dy의 비례식으로부터 산출될 수 있다.
즉, 그 무인비행체(610)는 그 무인비행체(610)가 위치한 3차원 좌표인 비행체좌표로부터 목표물(630)의 가상좌표까지의 x, y, z축 상의 거리인 (dx, dy, h)를 산출할 수 있다.
또한, 그 무인비행체(610)는 비행체좌표에 그 무인비행체(610)의 초기방향을 반영하여 산출된 (dx, dy, h)를 연산함으로써, 목표물(630)의 가상좌표를 산출할 수 있게 된다. 보다 구체적으로는, 그 무인비행체(610)는 측정된 초기방향에 따라 (dx, dy, h)를 비행체좌표를 중심으로 회전이동하여 가상좌표를 산출할 수 있다.
마지막으로, 그 무인비행체(610)는 그 무인비행체(610)가 위치한 3차원 좌표인 비행체좌표와 목표물(630)의 가상좌표간의 좌표값을 이용하여 방향벡터를 산출할 수 있다.
예컨대, 비행체좌표가 (x1, y1, z1)이고, 목표물(630)의 가상좌표가 (xv, yv, zv)인 경우, 그 무인비행체(610)는 (xv - x1, yv - y1, zv - z1)의 방향벡터를 산출할 수 있다.
한편, 그 무인비행체(610)에 탑재된 카메라가 회전(pan), 틸트(tilt) 또는 확대/축소(zoom)된 채로 이미지가 촬영된 경우, 그 카메라가 회전, 틸트 또는 확대/축소된 정도에 대응되도록 방향벡터를 산출할 수 있다.
이와 같이, 본 발명의 일 실시예에 따른 방향벡터 산출 방법은 무인비행체에 탑재된 자이로센서 및 카메라를 이용하여, 목표물의 가상좌표를 산출함으로써 방향벡터를 산출할 수 있는 효과가 있다.
도 3은 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 속도 산출 방법을 설명하기 위하여 도시한 흐름도이다.
단계 S310에서는, 위치 산출 장치가 제1 시각에서, 제2 목표물정보를 수신하는 단계, 제1 직선을 산출하는 단계, 제2 직선을 산출하는 단계 및 목표물좌표를 산출하는 단계를 수행하여 제1 목표물좌표를 산출한다.
즉, 위치 산출 장치가 제1 시각에서, 도 1에 대한 설명에서 상술한 S110 내지 S140의 단계를 거쳐 제1 목표물좌표를 산출할 수 있다.
단계 S320에서는, 위치 산출 장치가 제2 시각에서, 제2 목표물정보를 수신하는 단계, 제1 직선을 산출하는 단계, 제2 직선을 산출하는 단계 및 목표물좌표를 산출하는 단계를 수행하여 제2 목표물좌표를 산출한다.
이때, 제2 시각은 제1 시각으로부터 임계시간 이내의 시간이 지난 후이며, 위치 산출 장치가 제1 시각에서와 동일하게, 제2 시각에서, 상술한 S110 내지 S140의 단계를 거쳐 제2 목표물좌표를 산출할 수 있다.
단계 S330에서는, 위치 산출 장치가 제1 시각과 제2 시각 간의 시간 간격, 제1 목표물좌표 및 제2 목표물좌표를 이용하여 목표물속도를 산출한다.
한편, 속도는 거리를 시간으로 나누어 산출되므로, 위치 산출 장치가 수학식 6을 이용하여 목표물속도를 산출할 수 있다.
[수학식 6]
Figure 112016081252627-pat00006
여기서, (vx, vy, vz)는 목표물속도이고, (xt1, yt1, zt1)은 제1 목표물좌표이고, (xt2, yt2, zt2)는 제2 목표물좌표이다.
도 4는 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 장치를 설명하기 위하여 도시한 도면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 무인비행체를 이용한 목표물의 3차원 위치 산출 장치(400)는 수신부(410) 및 연산부(420)를 포함할 수 있다.
한편, 무인비행체를 이용한 목표물의 3차원 위치 산출 장치(400)는 제1 무인비행체 및 제2 무인비행체와 무선으로 연결되는 외부 장치(예, 그라운드 스테이션)에 탑재될 수 있으며, 제1 무인비행체 또는 제2 무인비행체 내부에도 탑재될 수 있다.
수신부(410)는 제1 무인비행체 및 제2 무인비행체로부터 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 그 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신한다.
다른 실시예에서는, 방향벡터는 그 제1 무인비행체 및 제2 무인비행체에 탑재된 자이로센서를 이용하여 그 제1 무인비행체 및 제2 무인비행체가 향하고 있는 제1 초기방향 및 제2 초기방향을 측정하고, 그 제1 무인비행체 및 제2 무인비행체에 탑재된 제1 카메라 및 제2 카메라를 이용하여 지면을 촬영한 제1 이미지 및 제2 이미지 각각으로부터 목표물의 위치를 인식하였을 때, 그 제1 무인비행체의 3차원 좌표인 제1 비행체좌표, 제1 초기방향, 제1 이미지 상의 목표물의 위치 및 제1 카메라의 화각에 기초하여 제1 방향벡터가 산출되고, 그 제2 무인비행체의 3차원 좌표인 제2 비행체좌표, 제2 초기방향, 제2 이미지 상의 목표물의 위치 및 제2 카메라의 화각에 기초하여 제2 방향벡터가 산출될 수 있다.
연산부(420)는 제1 목표물정보에 기초하여, 제1 무인비행체와 목표물 간을 연결하는 제1 직선을 산출하고, 제2 목표물정보에 기초하여, 제2 무인비행체와 목표물 간을 연결하는 제2 직선을 산출한다. 또한, 연산부(420)는 그 제1 직선 및 제2 직선을 이용하여, 목표물의 3차원 좌표인 목표물좌표를 더 산출한다.
다른 실시예에서는, 연산부(420)는 그 제1 직선과 제2 직선 간의 거리가 최소되도록 하는 그 제1 직선 및 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출하고, 그 산출된 제1 최소거리좌표 및 제2 최소거리좌표를 이용하여 목표물좌표를 산출할 수 있다.
또 다른 실시예에서는, 연산부(420)는 그 제1 최소거리좌표 및 제2 최소거리좌표를 이용하여 목표물좌표를 산출할 때, 그 제1 최소거리좌표와 제2 최소거리좌표 간을 연결하는 선분의 중심점을 목표물좌표로서 산출할 수 있다.
또 다른 실시예에서는, 연산부(420)는 그 제1 직선과 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 목표물좌표를 산출할 수 있다.
또 다른 실시예에서는, 연산부(420)는 임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 목표물의 이동 속도인 목표물속도를 더 산출할 수 있다.
또 다른 실시예에서는, 연산부(420)가 목표물속도를 더 산출할 때, 그 제1 시각에서, 수신부(410)가 수신한 제1 목표물정보를 이용하여, 제1 목표물좌표를 산출하고, 그 제2 시각에서, 수신부(410)가 수신한 제2 목표물정보를 이용하여, 제2 목표물좌표를 산출하고, 그 제1 시각과 제2 시각 간의 시간 간격, 제1 목표물좌표 및 제2 목표물좌표를 이용하여 목표물속도를 산출할 수 있다.
또 다른 실시예에서는, 무인비행체를 이용한 목표물의 3차원 위치 산출 장치(400)는 그 제1 무인비행체 및 제2 무인비행체와 연결되는 외부 장치, 그 제1 무인비행체 또는 그 제2 무인비행체에 탑재될 수 있다.
예컨대, 도 4는 3차원 위치 산출 장치(400)가 그 제1 무인비행체 및 제2 무인비행체와 연결되는 외부 장치(예, 그라운드 스테이션, 제3 무인비행체 등)에 탑재된 것을 나타내는 도면이다. 또한, 도 5는 3차원 위치 산출 장치(400)가 그 제1 무인비행체에 탑재된 것을 나타내는 도면이다.
한편, 도 5를 참조하면, 3차원 위치 산출 장치(400)가 그 제1 무인비행체에 탑재되었을 때, 3차원 위치 산출 장치(400)의 수신부(410)는 제2 무인비행체와 무선으로 연결되어 제2 목표물정보 등의 데이터를 수신할 수 있다. 또한, 3차원 위치 산출 장치(400)의 수신부(410)는 그 제1 무인비행체의 제어부(미도시)로부터 제1 목표물정보 등의 데이터를 내부적으로 수신할 수 있다. 또한, 마찬가지로, 3차원 위치 산출 장치(400)는 그 제2 무인비행체에도 탑재될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 제1 무인비행체 및 제2 무인비행체로부터 상기 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 상기 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신하는 단계;
    상기 제1 목표물정보에 기초하여, 상기 제1 무인비행체와 상기 목표물 간을 연결하는 제1 직선을 산출하는 단계;
    상기 제2 목표물정보에 기초하여, 상기 제2 무인비행체와 상기 목표물 간을 연결하는 제2 직선을 산출하는 단계; 및
    상기 제1 직선 및 상기 제2 직선을 이용하여, 상기 목표물의 3차원 좌표인 목표물좌표를 산출하는 단계
    를 포함하고,
    상기 방향벡터는
    상기 무인비행체의 위치, 상기 무인비행체가 향하고 있는 초기방향, 소정의 지구타원체의 표면을 기준으로 하는 상기 목표물의 가상좌표 및 상기 무인비행체에 탑재된 카메라의 팬(pan), 틸트(tilt) 및 줌(zoom)에 관한 정보인 카메라정보를 이용하여 산출되는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  2. 제1항에 있어서,
    상기 목표물좌표를 산출하는 단계는
    상기 제1 직선과 상기 제2 직선 간의 거리가 최소가 되도록 하는 상기 제1 직선 및 상기 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출하는 단계; 및
    상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출하는 단계
    를 포함하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  3. 제2항에 있어서,
    상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출하는 단계는
    상기 제1 최소거리좌표와 상기 제2 최소거리좌표 간을 연결하는 선분의 중심점을 상기 목표물좌표로서 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  4. 제1항에 있어서,
    상기 목표물좌표를 산출하는 단계는
    상기 제1 직선과 상기 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  5. 제1항에 있어서,
    상기 방향벡터는
    상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 자이로센서를 이용하여 상기 제1 무인비행체 및 상기 제2 무인비행체가 향하고 있는 제1 초기방향 및 제2 초기방향을 측정하는 단계;
    상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 제1 카메라 및 제2 카메라를 이용하여 지면을 촬영한 제1 이미지 및 제2 이미지 각각으로부터 상기 목표물의 위치를 인식하는 단계;
    상기 제1 무인비행체의 3차원 좌표인 제1 비행체좌표, 상기 제1 초기방향, 상기 제1 이미지 상의 상기 목표물의 위치 및 상기 제1 카메라의 화각에 기초하여 제1 방향벡터를 산출하는 단계; 및
    상기 제2 무인비행체의 3차원 좌표인 제2 비행체좌표, 상기 제2 초기방향, 상기 제2 이미지 상의 상기 목표물의 위치 및 상기 제2 카메라의 화각에 기초하여 제2 방향벡터를 산출하는 단계
    를 통해 산출되는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  6. 제1항에 있어서,
    임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 상기 목표물의 이동 속도인 목표물속도를 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  7. 제6항에 있어서,
    상기 목표물속도를 산출하는 단계는
    상기 제1 시각에서, 상기 제2 목표물정보를 수신하는 단계, 상기 제1 직선을 산출하는 단계, 상기 제2 직선을 산출하는 단계 및 상기 목표물좌표를 산출하는 단계를 수행하여 제1 목표물좌표를 산출하는 단계;
    상기 제2 시각에서, 상기 제2 목표물정보를 수신하는 단계, 상기 제1 직선을 산출하는 단계, 상기 제2 직선을 산출하는 단계 및 상기 목표물좌표를 산출하는 단계를 수행하여 제2 목표물좌표를 산출하는 단계; 및
    상기 제1 시각과 상기 제2 시각 간의 시간 간격, 상기 제1 목표물좌표 및 상기 제2 목표물좌표를 이용하여 상기 목표물속도를 산출하는 단계
    를 포함하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 방법.
  8. 제1 무인비행체 및 제2 무인비행체로부터 상기 무인비행체의 3차원 좌표를 나타내는 비행체좌표 및 상기 무인비행체로부터 목표물을 향하는 방향벡터의 정보를 포함하는 제1 목표물정보 및 제2 목표물정보를 수신하는 수신부; 및
    상기 제1 목표물정보에 기초하여, 상기 제1 무인비행체와 상기 목표물 간을 연결하는 제1 직선을 산출하고, 상기 제2 목표물정보에 기초하여, 상기 제2 무인비행체와 상기 목표물 간을 연결하는 제2 직선을 산출하는 연산부
    를 포함하고,
    상기 연산부는
    상기 제1 직선 및 상기 제2 직선을 이용하여, 상기 목표물의 3차원 좌표인 목표물좌표를 더 산출하고,
    상기 방향벡터는
    상기 무선비행체의 위치, 상기 무선비행체가 향하고 있는 초기방향, 소정의 지구타원체의 표면을 기준으로 하는 상기 목표물의 가상좌표 및 상기 무인비행체에 탑재된 카메라의 팬, 틸트 및 줌에 관한 정보인 카메라정보를 이용하여 산출되는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  9. 제8항에 있어서,
    상기 연산부는
    상기 제1 직선과 상기 제2 직선 간의 거리가 최소가 되도록 하는 상기 제1 직선 및 상기 제2 직선 상의 좌표인 제1 최소거리좌표 및 제2 최소거리좌표를 산출하고,
    상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  10. 제9항에 있어서,
    상기 연산부는
    상기 제1 최소거리좌표 및 상기 제2 최소거리좌표를 이용하여 상기 목표물좌표를 산출할 때,
    상기 제1 최소거리좌표와 상기 제2 최소거리좌표 간을 연결하는 선분의 중심점을 상기 목표물좌표로서 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  11. 제8항에 있어서,
    상기 연산부는
    상기 제1 직선과 상기 제2 직선 간의 거리의 최소값이 소정의 임계거리 이하인지에 따라, 선택적으로 상기 목표물좌표를 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  12. 제8항에 있어서,
    상기 방향벡터는
    상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 자이로센서를 이용하여 상기 제1 무인비행체 및 상기 제2 무인비행체가 향하고 있는 제1 초기방향 및 제2 초기방향을 측정하고,
    상기 제1 무인비행체 및 상기 제2 무인비행체에 탑재된 제1 카메라 및 제2 카메라를 이용하여 지면을 촬영한 제1 이미지 및 제2 이미지 각각으로부터 상기 목표물의 위치를 인식하였을 때,
    상기 제1 무인비행체의 3차원 좌표인 제1 비행체좌표, 상기 제1 초기방향, 상기 제1 이미지 상의 상기 목표물의 위치 및 상기 제1 카메라의 화각에 기초하여 제1 방향벡터가 산출되고, 상기 제2 무인비행체의 3차원 좌표인 제2 비행체좌표, 상기 제2 초기방향, 상기 제2 이미지 상의 상기 목표물의 위치 및 상기 제2 카메라의 화각에 기초하여 제2 방향벡터가 산출되는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  13. 제8항에 있어서,
    상기 연산부는
    임계시간 이내의 차이를 갖는 제1 시각 및 제2 시각 각각에서 산출된 목표물좌표인 제1 목표물좌표 및 제2 목표물좌표를 이용하여 상기 목표물의 이동 속도인 목표물속도를 더 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  14. 제13항에 있어서,
    상기 연산부는 상기 목표물속도를 더 산출할 때,
    상기 제1 시각에서, 상기 수신부가 수신한 제1 목표물정보를 이용하여, 제1 목표물좌표를 산출하고,
    상기 제2 시각에서, 상기 수신부가 수신한 제2 목표물정보를 이용하여, 제2 목표물좌표를 산출하고,
    상기 제1 시각과 상기 제2 시각 간의 시간 간격, 상기 제1 목표물좌표 및 상기 제2 목표물좌표를 이용하여 상기 목표물속도를 산출하는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
  15. 제8항에 있어서,
    상기 무인비행체를 이용한 목표물의 3차원 위치 산출 장치는
    상기 제1 무인비행체 및 상기 제2 무인비행체와 연결되는 외부 장치에 탑재되거나, 상기 제1 무인비행체에 탑재되거나, 상기 제2 무인비행체에 탑재되는 것을 특징으로 하는 무인비행체를 이용한 목표물의 3차원 위치 산출 장치.
KR1020160106095A 2016-08-22 2016-08-22 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치 KR101821992B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160106095A KR101821992B1 (ko) 2016-08-22 2016-08-22 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160106095A KR101821992B1 (ko) 2016-08-22 2016-08-22 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101821992B1 true KR101821992B1 (ko) 2018-03-08

Family

ID=61725653

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160106095A KR101821992B1 (ko) 2016-08-22 2016-08-22 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101821992B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220008181A (ko) * 2020-07-13 2022-01-20 대한민국(농촌진흥청장) 등검은말벌집 위치 정보 탐지 시스템 및 그 동작 방법
KR102472809B1 (ko) * 2022-05-16 2022-12-01 고려대학교 산학협력단 복수의 무인이동체를 이용한 감시 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001349707A (ja) * 2000-06-12 2001-12-21 Asia Air Survey Co Ltd 移動体の3次元位置計測システム
KR101536095B1 (ko) * 2015-01-14 2015-07-13 농업회사법인 주식회사 에이치알제주 무인 비행체를 이용한 산지 생태 축산의 방목형 목장 운용 및 관리 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001349707A (ja) * 2000-06-12 2001-12-21 Asia Air Survey Co Ltd 移動体の3次元位置計測システム
KR101536095B1 (ko) * 2015-01-14 2015-07-13 농업회사법인 주식회사 에이치알제주 무인 비행체를 이용한 산지 생태 축산의 방목형 목장 운용 및 관리 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220008181A (ko) * 2020-07-13 2022-01-20 대한민국(농촌진흥청장) 등검은말벌집 위치 정보 탐지 시스템 및 그 동작 방법
KR102496844B1 (ko) * 2020-07-13 2023-02-07 대한민국 등검은말벌집 위치 정보 탐지 시스템 및 그 동작 방법
KR102472809B1 (ko) * 2022-05-16 2022-12-01 고려대학교 산학협력단 복수의 무인이동체를 이용한 감시 시스템

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
CN107727079B (zh) 一种微小型无人机全捷联下视相机的目标定位方法
US10788830B2 (en) Systems and methods for determining a vehicle position
JP7404010B2 (ja) 位置推定装置及び方法
Wu et al. Autonomous flight in GPS-denied environments using monocular vision and inertial sensors
KR20180050823A (ko) 3차원의 도로 모델을 생성하는 방법 및 장치
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
JP6321202B2 (ja) モバイルプラットフォームの運動を決定する方法、装置、及びシステム
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
JP5762131B2 (ja) キャリブレーション装置、キャリブレーション装置のキャリブレーション方法およびキャリブレーションプログラム
CN111829532B (zh) 一种飞行器重定位系统和重定位方法
KR20160024562A (ko) 복수의 uav를 이용한 스테레오 비전 시스템
CN109341686A (zh) 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
KR101764222B1 (ko) 고정밀 측위 시스템 및 방법
Zhang et al. Vision-based relative altitude estimation of small unmanned aerial vehicles in target localization
KR101821992B1 (ko) 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치
EP1584896A1 (en) Passive measurement of terrain parameters
CN114820793A (zh) 基于无人机的目标检测及目标点定位方法及系统
KR101340158B1 (ko) 고정 표적을 이용한 무인항공기의 표적 위치 보정 방법 및 컴퓨터 판독 가능한 기록매체
Han et al. Multiple targets geolocation using SIFT and stereo vision on airborne video sequences
KR102050995B1 (ko) 공간좌표의 신뢰성 평가 장치 및 방법
Klavins et al. Unmanned aerial vehicle movement trajectory detection in open environment
KR101862065B1 (ko) 비행체를 이용한 영상 기반 바람 추정 장치 및 방법
Kang et al. Development of a peripheral-central vision system for small UAS tracking
US11372455B2 (en) Imaging sensor-based position detection

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant