KR20210014952A - Method and system for estimating location of aerial vehicle - Google Patents

Method and system for estimating location of aerial vehicle Download PDF

Info

Publication number
KR20210014952A
KR20210014952A KR1020190093069A KR20190093069A KR20210014952A KR 20210014952 A KR20210014952 A KR 20210014952A KR 1020190093069 A KR1020190093069 A KR 1020190093069A KR 20190093069 A KR20190093069 A KR 20190093069A KR 20210014952 A KR20210014952 A KR 20210014952A
Authority
KR
South Korea
Prior art keywords
aerial vehicle
unmanned aerial
information
interlocking
interlocking camera
Prior art date
Application number
KR1020190093069A
Other languages
Korean (ko)
Inventor
전진우
이인재
차지훈
최상혁
안재영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020190093069A priority Critical patent/KR20210014952A/en
Publication of KR20210014952A publication Critical patent/KR20210014952A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position

Abstract

Provided are a method and system for estimating a position of an unmanned aerial vehicle. The system for estimating the position of the unmanned aerial vehicle comprises: a plurality of pan/tilt (PT) interlocking camera devices detecting an unmanned aerial vehicle and acquiring two-dimensional (2D) position information of the unmanned aerial vehicle; and a control device estimating an angular position of the unmanned aerial vehicle based on the 2D position information and PT information of the PT interlocking camera devices and estimating three-dimensional (3D) position coordinates of the unmanned aerial vehicle based on the angular position and global positioning system (GPS) information of the PT interlocking camera devices.

Description

무인 비행체 위치 추정 방법 및 시스템{METHOD AND SYSTEM FOR ESTIMATING LOCATION OF AERIAL VEHICLE}Method and system for estimating the location of unmanned aerial vehicles {METHOD AND SYSTEM FOR ESTIMATING LOCATION OF AERIAL VEHICLE}

본 발명은 무인 비행체 위치 추정 방법 및 시스템에 관한 것으로, 특히 레이더를 사용하지 않고 광학 장치만을 사용하여 무인 비행체의 위치를 추정하는 무인 비행체 위치 추정 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for estimating the position of an unmanned aerial vehicle, and in particular, to a method and system for estimating the position of an unmanned aerial vehicle using only an optical device without using a radar.

무인 비행체(무인 항공기, 무인 비행기, 무인기, 드론(drone) 등)는 조종사가 탑승하지 않은 항공기이다. 무인 비행체는 지상에서 원격조종(remote piloted), 사전 프로그램된 경로에 따라 자동 또는 반자동(semi-auto-piloted)형식으로 자율비행하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체를 말한다. 또한 무인 비행체는 지상통제장비(GCS: Ground Control Station/System) 및 통신장비(데이터 링크) 지원장비(Support Equipments) 등의 전체 시스템을 통칭할 수도 있다.Unmanned aerial vehicles (unmanned aerial vehicles, unmanned aerial vehicles, unmanned aerial vehicles, drones, etc.) are aircraft that are not on board by a pilot. An unmanned aerial vehicle is a vehicle that is remote piloted from the ground, operates autonomously in an automatic or semi-auto-piloted format according to a pre-programmed route, or performs a mission according to its own environmental judgment by mounting artificial intelligence. . In addition, the unmanned aerial vehicle may collectively refer to the entire system, such as Ground Control Station/System (GCS) and communication equipment (data link) and support equipments.

무인 비행체의 운용이 활발해짐에 따라 무인 비행체로 인한 사고 또는 범죄를 방지하기 위한 안티 드론(anti-drone) 기술(또는 무인 비행체 방어 기술)의 필요성도 증가하고 있다. 일반적으로 안티 드론 기술은 무인 비행체의 접근을 탐지하는 탐지 기술과, 무인 비행체의 비행을 무력화시키는 무력화 기술을 포함할 수 있다.As the operation of unmanned aerial vehicles becomes more active, the need for anti-drone technology (or unmanned aerial vehicle defense technology) to prevent accidents or crimes caused by unmanned aerial vehicles is also increasing. In general, anti-drone technology may include a detection technology that detects the approach of an unmanned aerial vehicle and a neutralization technology that neutralizes the flight of an unmanned aerial vehicle.

본 발명이 해결하려는 과제는 레이더를 사용하지 않고 광학 장치만을 사용하여 무인 비행체의 위치를 추정할 수 있는 무인 비행체 위치 추정 방법 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a method and system for estimating the location of an unmanned aerial vehicle using only an optical device without using a radar.

본 발명의 일 실시 예에 따르면, 무인 비행체의 위치를 추정하는 무인 비행체 위치 추정 시스템이 제공된다. 무인 비행체 위치 추정 시스템은, 무인 비행체를 탐지하여 무인 비행체의 2D(2-dimensional) 위치 정보를 획득하는 복수의 PT(pan/tilt) 연동 카메라 장치, 및 2D 위치 정보 및 복수의 PT 연동 카메라 장치의 PT 정보에 기초하여 무인 비행체의 각위치를 추정하고, 각위치 및 복수의 PT 연동 카메라 장치의 GPS(Global Positioning System) 위치 정보에 기초하여 무인 비행체의 3D(3-dimensional) 위치 좌표를 추정하는 제어 장치를 포함할 수 있다.According to an embodiment of the present invention, a system for estimating the position of an unmanned aerial vehicle is provided. The unmanned aerial vehicle position estimation system includes a plurality of PT (pan/tilt) interlocking camera devices that detect unmanned aerial vehicles and acquire 2D (2-dimensional) location information of the unmanned aerial vehicle, and 2D location information and a plurality of PT interlocking camera devices. Control that estimates the angular position of the unmanned aerial vehicle based on PT information, and estimates the 3D (3-dimensional) position coordinates of the unmanned aerial vehicle based on the angular position and GPS (Global Positioning System) position information of a plurality of PT interlocking camera devices Device.

본 발명의 일 실시 예에 따르면, 비교적 해상도가 낮으면서 비용이 큰 레이더를 사용하는 방식, 무인 비행체의 위치를 추정하기 어려운 제어 신호를 획득하는 방식과 달리, 낮은 비용으로 탐지 성능을 향상시킬 수 있다.According to an embodiment of the present invention, unlike a method of using a radar having a relatively low resolution and high cost, and a method of obtaining a control signal that is difficult to estimate the position of an unmanned aerial vehicle, detection performance can be improved at low cost. .

또한, 본 발명의 일 실시 예에 따르면, 비교적 해상도가 높지만 깊이 정보를 추정하기 어려운 광학 장치를 사용하는 방식을 보완하여 무인 비행체와의 거리를 추정할 수 있어, 역시 낮은 비용으로 탐지 성능을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, it is possible to estimate the distance to the unmanned aerial vehicle by supplementing the method of using an optical device having a relatively high resolution but difficult to estimate depth information, and thus, the detection performance can be improved at a low cost. I can.

도 1은 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 PT 연동 카메라 장치를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 PT 연동 카메라 장치가 제어 장치에 제공하는 데이터의 일 구현 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 제어 장치를 설명하기 위한 도면이다.
도 5은 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 각위치(angular position)를 추정하는 방법의 일 구현 예를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 3D 위치 좌표를 추정하는 방법의 일 구현 예를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 3D 위치 좌표를 추정하는 방법의 다른 구현 예를 설명하기 위한 도면이다.
1 is a view for explaining an unmanned aerial vehicle position estimation system according to an embodiment of the present invention.
2 is a view for explaining a PT interlocking camera device according to an embodiment of the present invention.
3 is a view for explaining an example implementation of data provided by a PT interlocking camera device to a control device according to an embodiment of the present invention.
4 is a diagram illustrating a control device according to an embodiment of the present invention.
5 is a view for explaining a method of estimating the position of an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a view for explaining an implementation example of a method of estimating an angular position of an unmanned aerial vehicle by a control device according to an embodiment of the present invention.
7 is a view for explaining an implementation example of a method for estimating 3D position coordinates of an unmanned aerial vehicle by a control device according to an embodiment of the present invention.
8 is a view for explaining another implementation example of a method of estimating the 3D position coordinates of the unmanned aerial vehicle by the control device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated.

이제 본 발명의 실시 예에 따른 무인 비행체 위치 추정 방법 및 시스템에 대하여 도면을 참조하여 상세하게 설명한다.Now, a method and system for estimating an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 시스템을 설명하기 위한 도면이다.1 is a view for explaining an unmanned aerial vehicle position estimation system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 시스템(1)은 복수의 PT 연동 카메라 장치(10, 20) 및 제어 장치(30)를 포함할 수 있다. 구체적인 구현 목적에 따라, 무인 비행체 위치 추정 시스템(1)은 복수의 PT 연동 카메라 장치(10, 20)와 제어 장치(30)를 전기적으로 연결하기 위한 네트워크(40)를 더 포함할 수 있다.Referring to FIG. 1, an unmanned aerial vehicle position estimation system 1 according to an embodiment of the present invention may include a plurality of PT interlocking camera devices 10 and 20 and a control device 30. According to a specific implementation purpose, the unmanned aerial vehicle position estimation system 1 may further include a network 40 for electrically connecting the plurality of PT interlocking camera devices 10 and 20 and the control device 30.

복수의 PT 연동 카메라 장치(10, 20)는 무인 비행체를 탐지하여 무인 비행체의 2D 위치 정보를 획득한다. 구체적으로 복수의 PT 연동 카메라 장치(10, 20)는 광학 장치를 이용하여 무인 비행체를 탐지한 후, 무인 비행체의 2D 위치 정보를 포함하는 데이터(100, 200)를 제어 장치(30)에 제공할 수 있다. 여기서 무인 비행체의 2D 위치 정보는, 복수의 PT 연동 카메라 장치(10, 20)가 광학 장치를 이용하여 무인 비행체를 탐지한 2D 영상에 기초하여 검출한 2D 위치 좌표를 포함할 수 있다.The plurality of PT interlocking camera devices 10 and 20 detect the unmanned aerial vehicle and acquire 2D location information of the unmanned aerial vehicle. Specifically, after detecting the unmanned aerial vehicle using an optical device, the plurality of PT interlocking camera devices 10 and 20 will provide data 100 and 200 including 2D location information of the unmanned aerial vehicle to the control device 30. I can. Here, the 2D location information of the unmanned aerial vehicle may include 2D location coordinates detected based on a 2D image of the unmanned aerial vehicle detected by the plurality of PT interlocking camera devices 10 and 20 using an optical device.

본 실시 예에서, 복수의 PT 연동 카메라 장치(10, 20)는 피사체를 촬영할 수 있는 광학 장치를 구비하며, 팬(pan) 동작 및 틸트(tilt) 동작이 가능한 장치로 구현될 수 있다. 여기서 광학 장치는, 예컨대 전자 광학(electro-optical, EO) 카메라, 적외선(infrared, IR) 카메라 등을 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다. In this embodiment, the plurality of PT interlocking camera devices 10 and 20 include an optical device capable of capturing a subject, and may be implemented as a device capable of pan and tilt operations. Here, the optical device may include, for example, an electro-optical (EO) camera, an infrared (IR) camera, and the like, but the scope of the present invention is not limited thereto.

복수의 PT 연동 카메라 장치(10, 20) 각각은 서로 이격되어 배치될 수 있다. 즉, PT 연동 카메라 장치(10)는 지상의 제1 지점에 배치되고, PT 연동 카메라 장치(20)는 제1 지점과 다른 제2 지점에 배치될 수 있다. 서로 이격되어 다른 지점에 배치된 복수의 PT 연동 카메라 장치(10, 20)는 동일한 무인 비행체를 서로 다른 방향에서 탐지하고, 이로부터 획득한 각각의 2D 영상으로부터, 동일한 무인 비행체에 대해 서로 다른 2D 위치 좌표를 검출할 수 있다. 이후 제1 지점에 배치된 PT 연동 카메라 장치(10)가 검출한 2D 위치 좌표는 데이터(100)에 포함되어 제어 장치(30)에 제공되고, 제2 지점에 배치된 PT 연동 카메라 장치(20)가 검출한 2D 위치 좌표는 데이터(200)에 포함되어 제어 장치(30)에 제공될 수 있다.Each of the plurality of PT interlocking camera devices 10 and 20 may be disposed to be spaced apart from each other. That is, the PT interlocking camera apparatus 10 may be disposed at a first point on the ground, and the PT interlocking camera apparatus 20 may be disposed at a second point different from the first point. A plurality of PT interlocking camera devices 10 and 20 spaced apart from each other and arranged at different points detect the same unmanned aerial vehicle from different directions, and from each 2D image acquired therefrom, different 2D positions for the same unmanned aerial vehicle Coordinates can be detected. Thereafter, the 2D position coordinates detected by the PT interlocking camera device 10 disposed at the first point are included in the data 100 and provided to the control device 30, and the PT interlocking camera device 20 disposed at the second point. The 2D position coordinates detected by may be included in the data 200 and provided to the control device 30.

제어 장치(30)는 복수의 PT 연동 카메라 장치(10, 20)로부터 제공받은 데이터(100, 200)에 기초하여 무인 비행체의 3D 절대 위치를 추정할 수 있다. 구체적으로, 제어 장치(30)는 복수의 PT 연동 카메라 장치(10, 20)가 검출한 2D 위치 좌표, 복수의 PT 연동 카메라 장치(10, 20)의 팬 값 및 틸트 값에 기초하여 무인 비행체의 각위치를 추정할 수 있다. 나아가 제어 장치(30)는 복수의 PT 연동 카메라 장치(10, 20)의 각위치와 GPS 위치 정보를 이용하여 무인 비행체의 3D 위치 좌표를 추정할 수 있다.The control device 30 may estimate the 3D absolute position of the unmanned aerial vehicle based on the data 100 and 200 provided from the plurality of PT interlocking camera devices 10 and 20. Specifically, the control device 30 is based on the 2D position coordinates detected by the plurality of PT interlocking camera devices 10 and 20, and the pan and tilt values of the plurality of PT interlocking camera devices 10 and 20. Each location can be estimated. Further, the control device 30 may estimate the 3D position coordinates of the unmanned aerial vehicle using the respective positions of the plurality of PT interlocking camera devices 10 and 20 and GPS position information.

본 실시 예에서, 제어 장치(30)는 서버(server), 개인용 컴퓨터(personal computer), 노트북 컴퓨터, 태블릿 컴퓨터, 스마트폰을 비롯한 컴퓨팅 장치 또는 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 비롯한 프로그램 가능한 반도체 장치와 같은 하드웨어(hardware)로 구현될 수 있다. 뿐만 아니라 제어 장치(30)는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등의 프로세서를 통해 실행될 수 있는 프로그램 또는 어플리케이션과 같은 소프트웨어로 구현될 수도 있다. 나아가 제어 장치(30)는 이와 같은 하드웨어와 소프트웨어의 결합 형태로 구현될 수도 있다.In the present embodiment, the control device 30 is a server, a personal computer, a notebook computer, a tablet computer, a computing device including a smartphone, or an application specific integrated circuit (ASIC), a field programmable gate array (FPGA). ) May be implemented in hardware such as programmable semiconductor devices. In addition, the control device 30 may be implemented with software such as a program or application that can be executed through a processor such as a CPU (Central Processing Unit) or a GPU (Graphic Processing Unit). Furthermore, the control device 30 may be implemented in the form of a combination of hardware and software.

복수의 PT 연동 카메라 장치(10, 20)는 예컨대 데이터 전송 케이블을 이용하여 데이터(100, 200)를 제어 장치(30)에 직접 전송할 수 있다. 이와 다르게, 복수의 PT 연동 카메라 장치(10, 20)는 네트워크(400)를 통해 데이터(100, 200)를 제어 장치(30)에 전송할 수도 있다.The plurality of PT interlocking camera devices 10 and 20 may directly transmit the data 100 and 200 to the control device 30 using, for example, a data transmission cable. Alternatively, the plurality of PT interlocking camera devices 10 and 20 may transmit the data 100 and 200 to the control device 30 through the network 400.

본 실시 예에서, 네트워크(400)는 LAN(Local Area Network), WAN(Wide Area Network)를 비롯한 유선 네트워크, WiFi 네트워크, 블루투스(Bluetooth) 네트워크, 셀룰러(cellular) 네트워크 등을 비롯한 무선 네트워크, 또는 유선 네트워크와 무선 네트워크의 결합 형태를 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다.In this embodiment, the network 400 is a wired network, including a local area network (LAN), a wide area network (WAN), a WiFi network, a wireless network, including a Bluetooth network, a cellular network, or a wired network. A combination of a network and a wireless network may be included, but the scope of the present invention is not limited thereto.

도 2는 본 발명의 일 실시 예에 따른 PT 연동 카메라 장치를 설명하기 위한 도면이다. 그리고 도 3은 본 발명의 일 실시 예에 따른 PT 연동 카메라 장치가 제어 장치에 제공하는 데이터의 일 구현 예를 설명하기 위한 도면이다.2 is a view for explaining a PT interlocking camera device according to an embodiment of the present invention. And FIG. 3 is a diagram for explaining an implementation example of data provided by a PT interlocking camera device to a control device according to an embodiment of the present invention.

도 2 및 도 3을 참조하면, 본 발명의 일 실시 예에 따른 PT 연동 카메라 장치(10)는 GPS 모듈(11), PT 모듈(13), 광학 모듈(15) 및 타임스탬프 생성 모듈(17)을 포함할 수 있다. 도 1과 관련하여 앞서 설명한 것과 같이, PT 연동 카메라 장치(10)는 무인 비행체를 탐지하여 무인 비행체의 2D 위치 정보를 획득하고, 이를 제어 장치(30)에 전달할 수 있다.2 and 3, a PT interlocking camera device 10 according to an embodiment of the present invention includes a GPS module 11, a PT module 13, an optical module 15, and a timestamp generation module 17. It may include. As described above with respect to FIG. 1, the PT interlocking camera device 10 may detect the unmanned aerial vehicle to obtain 2D location information of the unmanned aerial vehicle, and transmit it to the control device 30.

GPS 모듈(11)은 PT 연동 카메라 장치(10)에 대한 GPS 위치 좌표를 검출하여 GPS 위치 정보(110)를 생성할 수 있다. 이를 위해 GPS 모듈(11)은 GPS 센서를 구비할 수 있다.The GPS module 11 may generate GPS location information 110 by detecting GPS location coordinates of the PT interlocking camera device 10. For this, the GPS module 11 may include a GPS sensor.

PT 모듈(13)은 PT 연동 카메라 장치(10)에 대한 팬 값 및 틸트 값을 검출하여 PT 정보(130)를 생성할 수 있다. 이를 위해 PT 모듈(13)은 PT 연동 카메라 장치(10)의 팬 동작 및 틸트 동작을 모니터링하는 센서를 구비할 수 있다. 특히, PT 모듈(13)은 후술할 광학 모듈(15)이 무인 비행체의 2D 위치 좌표를 검출하는 시점에 대응하는 시점에서의 PT 연동 카메라 장치(10)에 대한 팬 값 및 틸트 값에 기초하여 PT 정보(130)를 생성할 수 있다.The PT module 13 may generate PT information 130 by detecting a pan value and a tilt value for the PT interlocking camera device 10. To this end, the PT module 13 may include a sensor that monitors the pan operation and the tilt operation of the PT interlocking camera device 10. In particular, the PT module 13 is based on a pan value and a tilt value for the PT interlocking camera device 10 at a point in time corresponding to a point in time at which the optical module 15 to be described later detects the 2D position coordinate of the unmanned aerial vehicle. Information 130 may be generated.

광학 모듈(15)은 무인 비행체를 탐지한 영상(예컨대 2D 이미지)에서 무인 비행체의 2D 위치 좌표를 검출하여 2D 위치 정보(150)를 생성할 수 있다. 이를 위해 광학 모듈(13)은 무인 비행체를 탐지한 영상을 분석하고, 필요한 경우 해당 영상에 대한 이미지 처리를 추가로 수행할 수 있는 처리 회로를 구비할 수 있다.The optical module 15 may generate 2D location information 150 by detecting 2D position coordinates of the unmanned aerial vehicle from an image (eg, a 2D image) that detects the unmanned aerial vehicle. To this end, the optical module 13 may include a processing circuit capable of analyzing an image of detecting an unmanned aerial vehicle, and additionally performing image processing on the image if necessary.

타임스탬프 생성 모듈(17)은 무인 비행체를 탐지한 시각을 포함하는 타임스탬프 정보(170)를 생성할 수 있다. 이를 위해 타임스탬프 생성 모듈(17)은 시간을 카운트하는 타이밍 회로를 구비할 수 있다.The timestamp generation module 17 may generate timestamp information 170 including a time when the unmanned aerial vehicle is detected. To this end, the timestamp generation module 17 may include a timing circuit for counting time.

이와 같이 GPS 모듈(11), PT 모듈(13), 광학 모듈(15) 및 타임스탬프 생성 모듈(17)에서 각각 생성된 GPS 위치 정보(110), PT 정보(130), 2D 위치 정보(150) 및 타임스탬프 정보(170)는 데이터(100)에 포함되어 제어 장치(30)에 전송될 수 있다.As described above, GPS location information 110, PT information 130, and 2D location information 150 generated by the GPS module 11, PT module 13, optical module 15, and timestamp generation module 17, respectively. And the timestamp information 170 may be included in the data 100 and transmitted to the control device 30.

도 2 및 도 3에서는 복수의 PT 연동 카메라 장치(10, 20) 중 PT 연동 카메라 장치(10) 및 데이터(100)에 대해서만 도시하고 있으나, 도 2 및 도 3을 참조하여 설명되는 모든 내용은 복수의 PT 연동 카메라 장치(10, 20) 중 PT 연동 카메라 장치(20) 및 데이터(200)에 대해서도 동일하게 적용될 수 있다.2 and 3 show only the PT interlocking camera device 10 and the data 100 among the plurality of PT interlocking camera devices 10 and 20, but all contents described with reference to FIGS. 2 and 3 The same can be applied to the PT interlocking camera device 20 and the data 200 among the PT interlocking camera devices 10 and 20 of.

예를 들어, 복수의 PT 연동 카메라 장치(10, 20)는 GPS 모듈을 각각 구비할 수 있다. PT 연동 카메라 장치(10)의 GPS 모듈은 PT 연동 카메라 장치(10)에 대한 GPS 위치 좌표를 검출하여 제1 GPS 위치 정보를 생성하고, PT 연동 카메라 장치(20)의 GPS 모듈은 PT 연동 카메라 장치(20)에 대한 GPS 위치 좌표를 검출하여 제2 GPS 위치 정보를 생성할 수 있다. 제1 GPS 위치 정보는 데이터(100)에 포함되어 제어 장치(30)에 제공되고, 제2 GPS 위치 정보는 데이터(200)에 포함되어 제어 장치(30)에 제공될 수 있다.For example, the plurality of PT interlocking camera devices 10 and 20 may each include a GPS module. The GPS module of the PT interlocking camera device 10 generates first GPS position information by detecting the GPS position coordinates of the PT interlocking camera device 10, and the GPS module of the PT interlocking camera device 20 is a PT interlocking camera device. Second GPS location information may be generated by detecting the GPS location coordinates for (20). The first GPS location information may be included in the data 100 and provided to the control device 30, and the second GPS location information may be included in the data 200 and provided to the control device 30.

한편, 다른 예로, 복수의 PT 연동 카메라 장치(10, 20)는 PT 모듈을 각각 구비할 수 있다. PT 연동 카메라 장치(10)의 PT 모듈은 PT 연동 카메라 장치(10)에 대한 팬 값 및 틸트 값을 검출하여 제1 PT 정보를 생성하고, PT 연동 카메라 장치(20)의 PT 모듈은 PT 연동 카메라 장치(20)에 대한 팬 값 및 틸트 값을 검출하여 제2 PT 정보를 생성할 수 있다. 제1 PT 정보는 데이터(100)에 포함되어 제어 장치(30)에 제공되고, 제2 PT 정보는 데이터(200)에 포함되어 제어 장치(30)에 제공될 수 있다.Meanwhile, as another example, the plurality of PT interlocking camera devices 10 and 20 may each include a PT module. The PT module of the PT interlocking camera device 10 generates first PT information by detecting the pan and tilt values of the PT interlocking camera device 10, and the PT module of the PT interlocking camera device 20 is a PT interlocking camera. The second PT information may be generated by detecting a pan value and a tilt value for the device 20. The first PT information may be included in the data 100 and provided to the control device 30, and the second PT information may be included in the data 200 and provided to the control device 30.

한편, 다른 예로, 복수의 PT 연동 카메라 장치(10, 20)는 광학 모듈을 각각 구비할 수 있다. PT 연동 카메라 장치(10)의 광학 모듈은 PT 연동 카메라 장치(10)를 이용하여 무인 비행체를 탐지한 영상에 기반한 2D 위치 좌표를 검출하여 제1 2D 위치 정보를 생성하고, PT 연동 카메라 장치(20)의 광학 모듈은 PT 연동 카메라 장치(20)를 이용하여 무인 비행체를 탐지한 영상에 기반한 2D 위치 좌표를 검출하여 제2 2D 위치 정보를 생성할 수 있다. 제1 2D 위치 정보는 데이터(100)에 포함되어 제어 장치(30)에 제공되고, 제2 2D 위치 정보는 데이터(200)에 포함되어 제어 장치(30)에 제공될 수 있다.Meanwhile, as another example, the plurality of PT interlocking camera devices 10 and 20 may each include an optical module. The optical module of the PT interlocking camera device 10 uses the PT interlocking camera device 10 to detect 2D position coordinates based on the image that detects the unmanned aerial vehicle to generate first 2D position information, and the PT interlocking camera device 20 The optical module of) may generate second 2D location information by detecting 2D location coordinates based on an image that detects an unmanned aerial vehicle using the PT interlocking camera device 20. The first 2D location information may be included in the data 100 and provided to the control device 30, and the second 2D location information may be included in the data 200 and provided to the control device 30.

한편, 다른 예로, 복수의 PT 연동 카메라 장치(10, 20)는 타임스탬프 생성 모듈을 각각 구비할 수 있다. PT 연동 카메라 장치(10)의 타임스탬프 생성 모듈은 PT 연동 카메라 장치(10)가 무인 비행체를 탐지한 시각에 기초하여 제1 타임스탬프 정보를 생성하고, PT 연동 카메라 장치(20)의 타임스탬프 생성 모듈은 PT 연동 카메라 장치(20)가 무인 비행체를 탐지한 시각에 기초하여 제2 타임스탬프 정보를 생성할 수 있다. 제1 타임스탬프 정보는 데이터(100)에 포함되어 제어 장치(30)에 제공되고, 제2 타임스탬프 정보는 데이터(200)에 포함되어 제어 장치(30)에 제공될 수 있다.Meanwhile, as another example, the plurality of PT interlocking camera devices 10 and 20 may each include a timestamp generation module. The timestamp generation module of the PT-linked camera device 10 generates first timestamp information based on the time when the PT-linked camera device 10 detects the unmanned aerial vehicle, and generates a timestamp of the PT-linked camera device 20 The module may generate second timestamp information based on the time when the PT interlocking camera device 20 detects the unmanned aerial vehicle. The first timestamp information may be included in the data 100 and provided to the control device 30, and the second timestamp information may be included in the data 200 and provided to the control device 30.

도 4는 본 발명의 일 실시 예에 따른 제어 장치를 설명하기 위한 도면이다.4 is a diagram illustrating a control device according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 제어 장치(30)는 정보 수신 모듈(31), 동기화 모듈(33), 각위치 추정 모듈(35) 및 절대 위치 추정 모듈(37)을 포함할 수 있다. 도 1과 관련하여 앞서 설명한 것과 같이, 제어 장치(30)는 무인 비행체의 2D 위치 정보 및 복수의 PT 연동 카메라 장치(10, 20)의 PT 정보에 기초하여 무인 비행체의 각위치를 추정하고, 각위치 및 복수의 PT 연동 카메라 장치(10, 20)의 GPS 정보에 기초하여 무인 비행체의 3D 위치 좌표를 추정할 수 있다.Referring to FIG. 4, the control device 30 according to an embodiment of the present invention includes an information receiving module 31, a synchronization module 33, an angular position estimation module 35, and an absolute position estimation module 37. can do. 1, the control device 30 estimates the angular position of the unmanned aerial vehicle based on the 2D location information of the unmanned aerial vehicle and PT information of the plurality of PT interlocking camera devices 10, 20, and The 3D position coordinates of the unmanned aerial vehicle may be estimated based on the location and GPS information of the plurality of PT interlocking camera devices 10 and 20.

정보 수신 모듈(31)은 복수의 PT 연동 카메라 장치(10, 20) 중 적어도 하나로부터 데이터를 수신할 수 있다. 즉, 정보 수신 모듈(31)은 PT 연동 카메라 장치(10)로부터 데이터(100)를 수신하고, PT 연동 카메라 장치(20)로부터 데이터(200)를 수신할 수 있다. 도 1과 관련하여 앞서 설명한 것과 같이, 정보 수신 모듈(31)은 복수의 PT 연동 카메라 장치(10, 20) 중 적어도 하나로부터 직접 데이터를 수신할 수도 있고, 네트워크(400)를 통해 데이터를 수신할 수도 있다.The information receiving module 31 may receive data from at least one of the plurality of PT interlocked camera devices 10 and 20. That is, the information receiving module 31 may receive the data 100 from the PT interlocked camera device 10 and may receive the data 200 from the PT interlocked camera device 20. As described above with respect to FIG. 1, the information receiving module 31 may directly receive data from at least one of a plurality of PT interlocking camera devices 10 and 20, or may receive data through the network 400. May be.

동기화 모듈(33)은 타임스탬프 정보에 기초하여 복수의 PT 연동 카메라 장치(10, 20)로부터 수신한 GPS 위치 정보, 2D 위치 정보 및 PT 정보를 동기화할 수 있다. 제어 회로(30)는 복수 회에 걸쳐 복수의 PT 연동 카메라 장치(10, 20) 각각으로부터 데이터를 받을 수 있다. 동기화 모듈(33)은 이들 데이터들 중에서, 동일하거나 유사한 시점에 복수의 PT 연동 카메라 장치(10, 20) 각각으로부터 수신한 복수의 데이터를 하나의 데이터로 취급할 수 있도록 연관성을 부여할 수도 있고, 복수 회에 걸쳐 수신한 데이터의 순서를 식별하여 예컨대 정렬과 같은 연산을 수행할 수도 있다.The synchronization module 33 may synchronize GPS location information, 2D location information, and PT information received from the plurality of PT interlocking camera devices 10 and 20 based on the timestamp information. The control circuit 30 may receive data from each of the plurality of PT interlocking camera devices 10 and 20 multiple times. Among these data, the synchronization module 33 may give association so that a plurality of data received from each of the plurality of PT interlocking camera devices 10 and 20 at the same or similar time can be treated as one data, It is also possible to perform an operation such as sorting by identifying the order of data received multiple times.

각위치 추정 모듈(35)은 복수의 PT 연동 카메라 장치(10, 20)로부터 수신한, 서로 동기화된 복수의 2D 위치 정보 및 복수의 PT 정보에 기초하여 무인 비행체의 각위치를 추정할 수 있다. 예를 들어, PT 연동 카메라 장치(10)가 무인 비행체를 탐지한 영상으로부터 검출할 수 있는 목표물의 2D 좌표 값, PT 연동 카메라 장치(10)의 FOV(Field Of View) φfov, θfov 값 및 상기 영상의 해상도 값을 이용하여 목표물(즉, 무인 비행체)의 상대 각위치 φrel, θrel 값을 추정할 수 있다. 다음으로, PT 연동 카메라 장치(10)의 팬 값 및 틸트 값을 고려하여 목표물의 절대 각위치 φabs, θabs 값을 추정할 수 있다. 이에 대한 보다 구체적인 내용은 도 6을 참조하여 후술하도록 한다.The angular position estimation module 35 may estimate angular positions of the unmanned aerial vehicle based on a plurality of 2D position information synchronized with each other and a plurality of PT information received from the plurality of PT interlocking camera devices 10 and 20. For example, the 2D coordinate value of a target that can be detected from the image detected by the PT interlocking camera device 10, the field of view (FOV) φ fov , θ fov value of the PT interlocking camera device 10, and The relative angular positions φ rel and θ rel values of the target (ie, the unmanned aerial vehicle) may be estimated using the resolution value of the image. Next, values of the absolute angular positions φ abs and θ abs of the target may be estimated in consideration of the pan and tilt values of the PT interlocking camera device 10. More detailed information about this will be described later with reference to FIG. 6.

절대 위치 추정 모듈(37)은 각위치 추정 모듈(35) 추정한 각위치와, 복수의 PT 연동 카메라 장치(10, 20)의 GPS 위치 정보에 기초하여 무인 비행체의 3D 위치 좌표를 추정할 수 있다. 즉, 절대 위치 추정 모듈(37)은 복수의 PT 연동 카메라 장치(10, 20)에서 각각 획득한 각위치와, GPS 모듈을 이용하여 획득한 복수의 PT 연동 카메라 장치(10, 20) 각각의 위도 및 경도 값을 이용하여 스테레오 정합(stereo matching)을 수행함으로써 무인 비행체의 3D 위치 좌표를 추정할 수 있다. 이에 대한 보다 구체적인 내용은 도 7 및 도 8을 참조하여 후술하도록 한다.The absolute position estimation module 37 may estimate the 3D position coordinates of the unmanned aerial vehicle based on the estimated angular positions of the angular position estimating module 35 and the GPS position information of the plurality of PT interlocking camera devices 10 and 20. . That is, the absolute position estimation module 37 includes the respective positions obtained from the plurality of PT-linked camera devices 10 and 20 and the latitude of each of the plurality of PT-linked camera devices 10 and 20 obtained using the GPS module. And it is possible to estimate the 3D position coordinates of the unmanned aerial vehicle by performing stereo matching using the hardness value. More detailed information about this will be described later with reference to FIGS. 7 and 8.

도 5은 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 방법을 설명하기 위한 도면이다.5 is a diagram illustrating a method of estimating a position of an unmanned aerial vehicle according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 위치 추정 방법은, 복수의 PT 연동 카메라 장치(10, 20)로부터, 복수의 PT 연동 카메라 장치(10, 20)의 GPS 위치 정보, PT 정보, 무인 비행체의 2D 위치 정보 및 타임스탬프 정보를 수신하는 단계(S51)를 포함할 수 있다.5, a method for estimating the location of an unmanned aerial vehicle according to an embodiment of the present invention includes, from a plurality of PT interlocking camera devices 10 and 20, GPS location information of a plurality of PT interlocking camera devices 10, 20, It may include receiving PT information, 2D location information of the unmanned aerial vehicle, and timestamp information (S51).

본 발명의 몇몇의 실시 예에서, 상기 방법은, 복수의 PT 연동 카메라 장치(10, 20)를 이용하여, 복수의 PT 연동 카메라 장치(10, 20) 각각에 대한 GPS 위치 좌표를 검출하여 GPS 위치 정보를 생성하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method includes detecting GPS position coordinates for each of the plurality of PT interlocking camera devices 10 and 20 by using a plurality of PT interlocking camera devices 10 and 20. It may further include generating information.

본 발명의 몇몇의 실시 예에서, 상기 방법은, 복수의 PT 연동 카메라 장치(10, 20)를 이용하여, 복수의 PT 연동 카메라 장치(10, 20) 각각에 대한 팬 값 및 틸트 값을 검출하여 PT 정보를 생성하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method includes detecting a pan value and a tilt value for each of a plurality of PT linked camera devices 10 and 20 using a plurality of PT linked camera devices 10 and 20. It may further include generating PT information.

본 발명의 몇몇의 실시 예에서, 상기 방법은, 복수의 PT 연동 카메라 장치(10, 20)를 이용하여, 무인 비행체를 탐지한 영상에서 무인 비행체의 2D 위치 좌표를 검출하여 2D 위치 정보를 생성하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method includes generating 2D location information by detecting 2D position coordinates of the unmanned aerial vehicle from an image that detects the unmanned aerial vehicle using a plurality of PT interlocking camera devices (10, 20). It may further include a step.

본 발명의 몇몇의 실시 예에서, 상기 방법은, 복수의 PT 연동 카메라 장치(10, 20)를 이용하여 무인 비행체를 탐지한 시각을 포함하는 타임스탬프 정보를 생성하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method may further include generating timestamp information including a time when the unmanned aerial vehicle is detected using a plurality of PT interlocking camera devices 10 and 20.

또한, 상기 방법은, 타임스탬프 정보에 기초하여 GPS 위치 정보, PT 정보, 무인 비행체의 2D 위치 정보에 대한 동기화를 수행하는 단계(S53)를 포함할 수 있다.In addition, the method may include synchronizing GPS location information, PT information, and 2D location information of the unmanned aerial vehicle based on timestamp information (S53).

또한, 상기 방법은, 무인 비행체의 2D 위치 정보 및 복수의 PT 연동 카메라 장치(10, 20)의 PT 정보에 기초하여 무인 비행체의 각위치를 추정하는 단계(S55)를포함할 수 있다.In addition, the method may include estimating each position of the unmanned aerial vehicle based on 2D location information of the unmanned aerial vehicle and PT information of the plurality of PT interlocking camera devices 10 and 20 (S55).

또한, 상기 방법은, 단계(S55)에서 추정한 각위치와, 복수의 PT 연동 카메라 장치(10, 20)의 GPS 위치 정보에 기초하여 무인 비행체의 3D 위치 좌표를 추정하는 단계(S57)를 포함할 수 있다.In addition, the method includes a step (S57) of estimating the 3D position coordinates of the unmanned aerial vehicle based on each position estimated in step (S55) and GPS position information of the plurality of PT interlocking camera devices (10, 20). can do.

도 6은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 각위치를 추정하는 방법의 일 구현 예를 설명하기 위한 도면이다.6 is a view for explaining an implementation example of a method for estimating an angular position of an unmanned aerial vehicle by a control device according to an embodiment of the present invention.

도 6을 참조하면, 제어 장치(30)는 예를 들어 다음과 같은 방식으로 각위치 추정 모듈(35)을 이용하여 무인 비행체의 각위치를 추정할 수 있다.Referring to FIG. 6, the control device 30 may estimate the angular position of the unmanned aerial vehicle using the angular position estimating module 35, for example, in the following manner.

먼저, 제어 장치(30)는 PT 연동 카메라 장치(10)가 목표물(T)(즉, 무인 비행체)을 탐지한 영상(IMG)의 중심으로부터, 목표물(T)의 중심 픽셀까지의 x 축 방향 거리에 해당하는 dx 값 및 y 축 방향 거리에 해당하는 dy 값을 추출할 수 있다.First, the control device 30 is the distance in the x-axis direction from the center of the image (IMG) in which the PT interlocking camera device 10 detects the target T (that is, the unmanned aerial vehicle), to the center pixel of the target T A d x value corresponding to and a d y value corresponding to a distance in the y-axis direction may be extracted.

다음으로, 제어 장치(30)는 PT 연동 카메라 장치(10)의 FOV φfov, θfov 값과, 영상(IMG)의 해상도 rx 및 ry 값을 이용하여, PT 연동 카메라 장치(10)의 방향에 대한 목표물(T)의 각위치, 즉 상대 각위치 φrel, θrel 값을 추정할 수 있다. φfov, θfov, rx, ry, dx 및 dy 값은 식 (1) 및 식 (2)와 같은 관계를 가질 수 있다.Next, the control device 30 uses the FOV φ fov and θ fov values of the PT interlocking camera device 10 and the resolution r x and r y values of the image (IMG). The angular position of the target T with respect to the direction, that is, the relative angular position φ rel and θ rel values can be estimated. The values of φ fov , θ fov , r x , r y , d x and d y may have the same relationship as in Equations (1) and (2).

Figure pat00001
식 (1)
Figure pat00001
Equation (1)

Figure pat00002
식 (2)
Figure pat00002
Equation (2)

이로부터 상대 각위치 φrel, θrel 값은 식 (3) 및 식 (4)에 따라 결정될 수 있다.From this, the relative angular position φ rel and θ rel values can be determined according to equations (3) and (4).

Figure pat00003
식 (3)
Figure pat00003
Equation (3)

Figure pat00004
식 (4)
Figure pat00004
Equation (4)

다음으로, 제어 장치(30)는 PT 연동 카메라 장치(10)의 팬 값 및 틸트 값에 각각 해당하는 φpt, θpt 값을 이용하여, 식 (5) 및 식 (6)에 따라, PT 연동 카메라 장치(10)에서 목표 방향으로의 절대 각위치 φabs, θabs 값을 추정할 수 있다.Next, the control device 30 uses the φ pt and θ pt values corresponding to the pan and tilt values of the PT interlocking camera device 10, respectively, according to equations (5) and (6). The camera device 10 may estimate values of absolute angular positions φ abs and θ abs in the target direction.

Figure pat00005
식 (5)
Figure pat00005
Equation (5)

Figure pat00006
식 (6)
Figure pat00006
Equation (6)

도 6을 참조하여 설명한 무인 비행체의 각위치를 추정하는 방법은 예시적인 것일 뿐이며, 본 발명의 범위가 이에 제한되는 것은 아니다. 상기 방법을 변형한 다른 방법 또는 상기 방법과 상이한 또 다른 방법에 의해서 무인 비행체의 각위치를 추정하는 방법이 구현될 수 있다.The method of estimating the angular position of the unmanned aerial vehicle described with reference to FIG. 6 is only exemplary, and the scope of the present invention is not limited thereto. A method of estimating the angular position of the unmanned aerial vehicle by another method modified from the method or by another method different from the method may be implemented.

도 7은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 3D 위치 좌표를 추정하는 방법의 일 구현 예를 설명하기 위한 도면이다.7 is a view for explaining an implementation example of a method for estimating 3D position coordinates of an unmanned aerial vehicle by a control device according to an embodiment of the present invention.

도 7을 참조하면, 제어 장치(30)는 절대 위치 추정 모듈(37)을 이용하여 무인 비행체의 3D 위치 좌표를 추정할 수 있다. 구체적으로, 제어 장치(30)는 PT 연동 카메라 장치(10)에서 획득한 각위치와, GPS 모듈을 이용하여 획득한 PT 연동 카메라 장치(10)의 위도 및 경도 값을 이용하여, 영상(IMG1)을 기준으로 한 목표물(T)(즉, 무인 비행체)에 대한 제1 가상 직선을 생성할 수 있다.Referring to FIG. 7, the control device 30 may estimate the 3D position coordinates of the unmanned aerial vehicle by using the absolute position estimation module 37. Specifically, the control device 30 uses the angular position acquired by the PT interlocking camera device 10 and the latitude and longitude values of the PT interlocking camera device 10 acquired using a GPS module, and the image IMG1 It is possible to generate a first virtual straight line for the target T (ie, unmanned aerial vehicle) based on.

또한, 제어 장치(30)는 PT 연동 카메라 장치(10)와 이격되어 배치된 PT 연동카메라 장치(20)에서 획득한 각위치와, GPS 모듈을 이용하여 획득한 PT 연동 카메라 장치(20)의 위도 및 경도 값을 이용하여, 영상(IMG2)을 기준으로 한 목표물(T) 에 대한 제2 가상 직선을 생성할 수 있다.In addition, the control device 30 includes angular positions acquired from the PT interlocking camera device 20 arranged spaced apart from the PT interlocking camera device 10 and the latitude of the PT interlocking camera device 20 acquired using a GPS module. And by using the hardness value, a second virtual straight line for the target T based on the image IMG2 may be generated.

제어 장치(30)는 제1 가상 직선과 제2 가상 직선의 교차점의 좌표를 목표물(T)의 3D 위치 좌표로 추정할 수 있다.The control device 30 may estimate the coordinates of the intersection of the first virtual straight line and the second virtual straight line as the 3D position coordinates of the target T.

도 8은 본 발명의 일 실시 예에 따른 제어 장치가 무인 비행체의 3D 위치 좌표를 추정하는 방법의 다른 구현 예를 설명하기 위한 도면이다.8 is a view for explaining another implementation example of a method of estimating the 3D position coordinates of the unmanned aerial vehicle by the control device according to an embodiment of the present invention.

도 8을 참조하면, 제어 장치(30)는 PT 연동 카메라 장치(10)에서 획득한 각위치와, GPS 모듈을 이용하여 획득한 PT 연동 카메라 장치(10)의 위도 및 경도 값을 이용하여, 목표물(T)에 대한 제3 가상 직선(a)을 생성할 수 있다.Referring to FIG. 8, the control device 30 uses each position acquired from the PT interlocking camera device 10 and the latitude and longitude values of the PT interlocking camera device 10 acquired using a GPS module, It is possible to generate a third virtual straight line (a) for (T).

또한, 제어 장치(30)는 PT 연동 카메라 장치(10)와 이격되어 배치된 PT 연동카메라 장치(20)에서 획득한 각위치와, GPS 모듈을 이용하여 획득한 PT 연동 카메라 장치(20)의 위도 및 경도 값을 이용하여, 목표물(T) 에 대한 제4 가상 직선(c)을 생성할 수 있다.In addition, the control device 30 includes angular positions acquired from the PT interlocking camera device 20 arranged spaced apart from the PT interlocking camera device 10 and the latitude of the PT interlocking camera device 20 acquired using a GPS module. And by using the hardness value, it is possible to generate a fourth virtual straight line (c) for the target (T).

그런데 제3 가상 직선(a)과 제4 가상 직선(c)의 교차점이 존재하지 않을 수 있다. 예를 들어, 픽셀 오차, 카메라 왜곡에 기인한 오차 등의 원인으로 제3 가상 직선(a)과 제4 가상 직선(c)이 하나의 점으로 교차하지 않는 스큐(skew) 상태에 있는 경우에는, 제3 가상 직선(a)과 제4 가상 직선(c)의 최단 거리를 잇는 선분(p-q)의 중심 점(r)을 목표물(T)의 3D 위치 좌표로 추정할 수 있다.However, the intersection of the third virtual straight line (a) and the fourth virtual straight line (c) may not exist. For example, if the third virtual straight line (a) and the fourth virtual straight line (c) are in a skew state that does not intersect with one point due to an error caused by pixel error or camera distortion, The center point r of the line segment pq connecting the shortest distance between the third virtual straight line a and the fourth virtual straight line c may be estimated as the 3D position coordinate of the target T.

도 7 및 도 8을 참조하여 설명한 무인 비행체의 3D 위치 좌표를 추정하는 방법은 예시적인 것일 뿐이며, 본 발명의 범위가 이에 제한되는 것은 아니다. 상기 방법을 변형한 다른 방법 또는 상기 방법과 상이한 또 다른 방법에 의해서 무인 비행체의 3D 위치 좌표를 추정하는 방법이 구현될 수 있다.The method of estimating the 3D position coordinates of the unmanned aerial vehicle described with reference to FIGS. 7 and 8 is only exemplary, and the scope of the present invention is not limited thereto. A method of estimating the 3D position coordinates of the unmanned aerial vehicle by another method modified from the method or by another method different from the method may be implemented.

이제까지 설명한 본 발명의 실시 예들에 따르면, 레이더를 사용하지 않으면서도 광학 장치를 이용하여 무인 비행체의 위치를 높은 해상도로 정밀하게 탐지할 수 있을 뿐 아니라, 본 명세서에서 설명한 무인 비행체의 각위치 및 3D 절대 위치를 추정하는 기법을 이용하여 무인 비행체와의 거리를 추정할 수 있어, 낮은 비용으로도 무인 비행체를 탐지하는 성능을 향상시킬 수 있다.According to the embodiments of the present invention described so far, it is possible to precisely detect the position of the unmanned aerial vehicle with high resolution using an optical device without using a radar, as well as the angular position and 3D absolute of the unmanned aerial vehicle described in this specification. Since the distance to the unmanned aerial vehicle can be estimated by using a location estimation technique, the performance of detecting the unmanned aerial vehicle can be improved at low cost.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다. Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and ordinary knowledge in the technical field to which the present invention belongs, using the basic concept of the present invention defined in the following claims. Various modifications and improved forms of those who have are also within the scope of the present invention.

Claims (1)

무인 비행체를 탐지하여 상기 무인 비행체의 2D(2-dimensional) 위치 정보를 획득하는 복수의 PT(pan/tilt) 연동 카메라 장치; 및
상기 2D 위치 정보 및 상기 복수의 PT 연동 카메라 장치의 PT 정보에 기초하여 상기 무인 비행체의 각위치를 추정하고, 상기 각위치 및 상기 복수의 PT 연동 카메라 장치의 GPS(Global Positioning System) 위치 정보에 기초하여 상기 무인 비행체의 3D(3-dimensional) 위치 좌표를 추정하는 제어 장치
를 포함하는 무인 비행체 위치 추정 시스템.
A plurality of PT (pan/tilt) interlocking camera devices that detect the unmanned aerial vehicle and acquire 2D (2-dimensional) location information of the unmanned aerial vehicle; And
Estimates each position of the unmanned aerial vehicle based on the 2D location information and PT information of the plurality of PT-linked camera devices, and based on the respective positions and GPS (Global Positioning System) location information of the plurality of PT-linked camera devices Control device to estimate the 3D (3-dimensional) position coordinates of the unmanned aerial vehicle
Unmanned aerial vehicle location estimation system comprising a.
KR1020190093069A 2019-07-31 2019-07-31 Method and system for estimating location of aerial vehicle KR20210014952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190093069A KR20210014952A (en) 2019-07-31 2019-07-31 Method and system for estimating location of aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190093069A KR20210014952A (en) 2019-07-31 2019-07-31 Method and system for estimating location of aerial vehicle

Publications (1)

Publication Number Publication Date
KR20210014952A true KR20210014952A (en) 2021-02-10

Family

ID=74561389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190093069A KR20210014952A (en) 2019-07-31 2019-07-31 Method and system for estimating location of aerial vehicle

Country Status (1)

Country Link
KR (1) KR20210014952A (en)

Similar Documents

Publication Publication Date Title
CN110582798B (en) System and method for virtual enhanced vision simultaneous localization and mapping
EP3469306B1 (en) Geometric matching in visual navigation systems
US10798526B2 (en) Systems and methods for co-localization of multiple devices
WO2020037492A1 (en) Distance measuring method and device
Zhang et al. Novel technique for vision-based UAV navigation
US11373418B2 (en) Information processing apparatus, information processing method, program, and mobile object
US11427218B2 (en) Control apparatus, control method, program, and moving body
US20240118083A1 (en) Localisation of mobile device using image and non-image sensor data in server processing
US10481680B2 (en) Systems and methods to provide a shared augmented reality experience
JP2018526849A (en) Surveillance system having a fixed camera and a temporary camera
JPWO2017057054A1 (en) Information processing apparatus, information processing method, and program
WO2018193254A1 (en) Distributed device mapping
US20140286537A1 (en) Measurement device, measurement method, and computer program product
KR20160070375A (en) Apparatus and method for matching aviation image using swarm filght of unmanned vehicle
US11543513B2 (en) Information processing apparatus, information processing method and program
CN111829532A (en) Aircraft repositioning system and method
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
CN104133485A (en) Electronic map detail perfection control system based on unmanned aerial vehicles
WO2020110359A1 (en) System and method for estimating pose of robot, robot, and storage medium
Wu et al. A soft time synchronization framework for multi-sensors in autonomous localization and navigation
US10620717B2 (en) Position-determining input device
KR20210014952A (en) Method and system for estimating location of aerial vehicle
WO2024057779A1 (en) Information processing device, program, and information processing system
WO2024084925A1 (en) Information processing apparatus, program, and information processing method
KR101837893B1 (en) Sensor-based mobile Localization System and Method

Legal Events

Date Code Title Description
A201 Request for examination