KR20210014951A - Method and system for detecting aerial vehicle - Google Patents

Method and system for detecting aerial vehicle Download PDF

Info

Publication number
KR20210014951A
KR20210014951A KR1020190093068A KR20190093068A KR20210014951A KR 20210014951 A KR20210014951 A KR 20210014951A KR 1020190093068 A KR1020190093068 A KR 1020190093068A KR 20190093068 A KR20190093068 A KR 20190093068A KR 20210014951 A KR20210014951 A KR 20210014951A
Authority
KR
South Korea
Prior art keywords
target
information
radar
detection device
aerial vehicle
Prior art date
Application number
KR1020190093068A
Other languages
Korean (ko)
Inventor
이인재
차지훈
전진우
최상혁
안재영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020190093068A priority Critical patent/KR20210014951A/en
Publication of KR20210014951A publication Critical patent/KR20210014951A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided are a method for detecting an unmanned aerial vehicle and a system thereof. The system for detecting the unmanned aerial vehicle comprises: a radar device which detects a target using a radar signal and generates target information on the target; a target detection device having multiple sensors and tracking the target by operating the multiple sensors using the target information; and an operation device receiving the target information from the radar device and transmitting the target information to the target detection device according to a predetermined policy.

Description

무인 비행체 탐지 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING AERIAL VEHICLE}Unmanned aerial vehicle detection method and system {METHOD AND SYSTEM FOR DETECTING AERIAL VEHICLE}

본 발명은 무인 비행체 탐지 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for detecting an unmanned aerial vehicle.

무인 비행체(무인 항공기, 무인 비행기, 무인기, 드론(drone) 등)는 조종사가 탑승하지 않은 항공기이다. 무인 비행체는 지상에서 원격조종(remote piloted), 사전 프로그램된 경로에 따라 자동 또는 반자동(semi-auto-piloted)형식으로 자율비행하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체를 말한다. 또한 무인 비행체는 지상통제장비(GCS: Ground Control Station/System) 및 통신장비(데이터 링크) 지원장비(Support Equipments) 등의 전체 시스템을 통칭할 수도 있다.Unmanned aerial vehicles (unmanned aerial vehicles, unmanned aerial vehicles, unmanned aerial vehicles, drones, etc.) are aircraft that are not on board by a pilot. An unmanned aerial vehicle is a vehicle that is remote piloted from the ground, operates autonomously in an automatic or semi-auto-piloted format according to a pre-programmed route, or performs a mission according to its own environmental judgment by mounting artificial intelligence. . In addition, the unmanned aerial vehicle may collectively refer to the entire system, such as Ground Control Station/System (GCS) and communication equipment (data link) and support equipments.

무인 비행체의 운용이 활발해짐에 따라 무인 비행체로 인한 사고 또는 범죄를 방지하기 위한 안티 드론(anti-drone) 기술(또는 무인 비행체 방어 기술)의 필요성도 증가하고 있다. 일반적으로 안티 드론 기술은 무인 비행체의 접근을 탐지하는 탐지 기술과, 무인 비행체의 비행을 무력화시키는 무력화 기술을 포함할 수 있다.As the operation of unmanned aerial vehicles becomes more active, the need for anti-drone technology (or unmanned aerial vehicle defense technology) to prevent accidents or crimes caused by unmanned aerial vehicles is also increasing. In general, anti-drone technology may include a detection technology that detects the approach of an unmanned aerial vehicle and a neutralization technology that neutralizes the flight of an unmanned aerial vehicle.

본 발명이 해결하려는 과제는 무인 비행체의 탐지 속도 및 품질을 높일 수 있는 무인 비행체 탐지 방법 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide an unmanned aerial vehicle detection method and system capable of increasing the detection speed and quality of an unmanned aerial vehicle.

본 발명의 일 실시 예에 따르면, 무인 비행체를 탐지하는 무인 비행체 탐지시스템이 제공된다. 무인 비행체 탐지 시스템은, 레이더 신호를 이용하여 표적을 탐지하고, 표적에 대한 표적 정보를 생성하는 레이더 장치, 다중 센서를 구비하고, 표적 정보를 이용하여 상기 다중 센서를 동작시켜 상기 표적을 추적하는 표적 탐지 장치 및 레이더 장치로부터 표적 정보를 수신하고, 미리 정해진 정책에 따라 표적 탐지 장치에 표적 정보를 전달하는 운용 장치를 포함하되, 다중 센서의 초기 초점 거리는, 레이더 장치에서 발사되는 하나의 레이더 빔이 지원하는 방위각 및 고각 방향의 빔 크기에 기반하여, 레이더 셀의 전체 ROI 범위를 계산하고, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 계산된 후보 초점 거리 중 전체 ROI 범위를 만족하는 초점 거리를 선택함으로써 결정되고, 레이더 장치는 미리 정해진 주기에 따라 표적 정보를 갱신하고, 표적 탐지 장치는 갱신된 표적 정보의 표적 크기, 표적 속도, 표적 거리를 반영하여 다중 센서의 초점 거리를 조정할 수 있다.According to an embodiment of the present invention, an unmanned aerial vehicle detection system for detecting an unmanned aerial vehicle is provided. The unmanned aerial vehicle detection system includes a radar device that detects a target using a radar signal and generates target information about the target, multiple sensors, and operates the multiple sensors using target information to track the target. It includes an operating device that receives target information from a detection device and a radar device, and transmits target information to the target detection device according to a predetermined policy, but the initial focal length of multiple sensors is supported by one radar beam emitted from the radar device. Based on the beam size in the azimuth and elevation directions, the entire ROI range of the radar cell is calculated, and a focal length that satisfies the entire ROI range is selected among candidate focal lengths calculated based on the minimum detectable Pixels on Target (PoT). The radar device may update the target information according to a predetermined period, and the target detection device may adjust the focal length of the multiple sensors by reflecting the target size, target speed, and target distance of the updated target information.

본 발명의 일 실시 예에 따르면, 비교적 오차가 크고 인식률이 낮은 레이더의 단점을 보완하기 위해 광학 센서, 깊이 정보 추출 센서 등의 센서들을 함께 운영함으로써, 보다 신속하게 무인 비행체를 탐지하고, 표적의 인식률을 높일 수 있다.According to an embodiment of the present invention, sensors such as an optical sensor and a depth information extraction sensor are operated together to compensate for the shortcomings of a radar with a relatively large error and a low recognition rate, thereby detecting an unmanned aerial vehicle more quickly and a target recognition rate. Can increase.

이에 따라 무인 비행체 인식 품질을 향상시킬 수 있고, 무인 비행체의 추적 성능을 향상시킬 수 있으며, 나아가 탐지된 무인 비행체의 불법성 여부를 보다 정확하게 판단할 수 있다.Accordingly, it is possible to improve the recognition quality of the unmanned aerial vehicle, improve the tracking performance of the unmanned aerial vehicle, and further accurately determine whether the detected unmanned aerial vehicle is illegal.

도 1은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 레이더 장치를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 운용 장치를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 표적 탐지 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 9 내지 도 12는 본 발명의 일 실시 예에 따른 다중 센서에 대한 초점 거리를 설정하는 방법을 설명하기 위한 도면들이다.
도 13은 본 발명의 일 실시 예에 따른 컴퓨팅 시스템을 나타내는 도면이다.
1 is a view for explaining an unmanned aerial vehicle detection system according to an embodiment of the present invention.
2 is a view for explaining a radar device according to an embodiment of the present invention.
3 is a view for explaining an operating device according to an embodiment of the present invention.
4 is a view for explaining a target detection device according to an embodiment of the present invention.
5 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
7 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
8 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
9 to 12 are diagrams for explaining a method of setting a focal length for multiple sensors according to an embodiment of the present invention.
13 is a diagram illustrating a computing system according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated.

이제 본 발명의 실시 예에 따른 무인 비행체 위치 추정 방법 및 시스템에 대하여 도면을 참조하여 상세하게 설명한다.Now, a method and system for estimating an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템을 설명하기 위한 도면이다.1 is a view for explaining an unmanned aerial vehicle detection system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템(1)은 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)를 포함할 수 있다. 구체적인 구현 목적에 따라, 무인 비행체 탐지 시스템(1)은 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)를 전기적으로 연결하기 위한 네트워크(40)를 더 포함할 수 있다.Referring to FIG. 1, an unmanned aerial vehicle detection system 1 according to an embodiment of the present invention may include a radar device 10, an operation device 20, and a target detection device 30. According to a specific implementation purpose, the unmanned aerial vehicle detection system 1 may further include a network 40 for electrically connecting the radar device 10, the operating device 20, and the target detection device 30.

레이더 장치(10)는 레이더 신호를 이용하여 표적을 탐지한다. 여기서 표적은 무인 비행체일 수 있으나, 무인 비행체로 식별 되기 전에 레이더 신호에 의해 탐지되는 임의의 물체도 의미할 수 있다. 레이더 장치(10)는 탐지한 표적에 대한 표적 정보를 생성하고, 표적 정보를 운용 장치(20) 또는 표적 탐지 장치(30)에 전달할 수 있다.The radar device 10 detects a target using a radar signal. Here, the target may be an unmanned aerial vehicle, but may also mean an arbitrary object detected by a radar signal before being identified as an unmanned aerial vehicle. The radar device 10 may generate target information on the detected target and transmit the target information to the operating device 20 or the target detection device 30.

본 발명의 몇몇의 실시 예에서, 표적 정보는 표적의 식별 정보(id), 방위각 정보, 고각 정보, 거리 정보, 이동 속도 정보, 이동 방향 정보 및 위험도 정보 중 적어도 하나를 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니고, 표적 정보가 포함하는 정보들의 종류와 개수는 구체적인 구현 목적에 따라 얼마든지 변경될 수 있다.In some embodiments of the present invention, the target information may include at least one of identification information (id) of a target, azimuth angle information, elevation angle information, distance information, movement speed information, movement direction information, and risk information, but the present invention The range of is not limited thereto, and the type and number of information included in the target information may be changed as much as possible according to a specific implementation purpose.

이와 같은 표적 정보는 미리 정해진 주기에 따라 갱신될 수 있다. 즉, 레이더 장치(10)는 미리 정해진 주기에 따라 표적을 반복 탐지하거나 새로 탐지하여 표적 정보를 갱신할 수 있다. 여기서 미리 정해진 주기는 일정 시간 간격을 갖는 주기를 의미할 수도 있고, 가변적인 시간 간격을 갖는 주기를 의미할 수도 있다. 레이더 장치(10)는 표적 정보를 갱신한 경우, 갱신된 표적 정보를 운용 장치(20) 또는 표적 탐지 장치(30)에 전달할 수 있다.Such target information may be updated according to a predetermined period. That is, the radar device 10 may repeatedly detect the target or newly detect the target according to a predetermined period to update target information. Here, the predetermined period may mean a period having a predetermined time interval or a period having a variable time interval. When the target information is updated, the radar device 10 may transmit the updated target information to the operating device 20 or the target detection device 30.

운용 장치(20)는 표적에 관한 정보를 표적 탐지 장치(30)에 제공하고, 표적 탐지 장치(30)로부터 탐지 결과 데이터를 제공받아, 이를 처리할 수 있다. 구체적으로, 운용 장치(20)는 레이더 장치(10)로부터 표적 정보를 수신하고, 미리 정해진 정책에 따라 표적 정보를 표적 탐지 장치(30)에 전달할 수 있다. 예를 들어, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신한 경우, 운용 장치(20)는 미리 정해진 우선순위에 따라 복수의 표적 정보 중 하나를 선택하여 표적 탐지 장치(30)에 제공하거나, 복수의 표적 정보를 미리 정해진 우선순위에 따르는 순서에 따라 순차적으로 표적 탐지 장치(30)에 제공할 수 있다.The operating device 20 may provide information on a target to the target detection device 30, receive detection result data from the target detection device 30, and process it. Specifically, the operating device 20 may receive target information from the radar device 10 and transmit the target information to the target detection device 30 according to a predetermined policy. For example, when the operating device 20 receives a plurality of target information from the radar device 10, the operating device 20 selects one of the plurality of target information according to a predetermined priority, and the target detection device ( 30), or may be provided to the target detection apparatus 30 sequentially in an order according to a predetermined priority.

본 발명의 몇몇의 실시 예에서, 위험도 정보는, 운용 장치(20)가 레이더 장치(10)로부터 수신한 표적 정보 중에서, 표적 탐지 장치(30)에 전달할 표적 정보를 선택하기 위해 사용될 수 있다. 다시 말해서, 운용 장치(20)는 레이더 장치(10)로부터 수신한 복수의 표적 정보 중에서, 위험도 정보에 따라(예를 들어 위험도가 높은 순서에 따라) 표적 탐지 장치(30)에 전달할 표적 정보를 선택할 수 있다.In some embodiments of the present invention, the risk information may be used to select target information to be transmitted to the target detection device 30 from among target information received by the operating device 20 from the radar device 10. In other words, the operating device 20 selects target information to be transmitted to the target detection device 30 according to the risk information (eg, in the order of high risk) from among a plurality of target information received from the radar device 10. I can.

그리고 운용 장치(20)는 표적 탐지 장치(30)로부터 수신한 탐지 결과 데이터를 UTM(Unified Threat Management)과 같은 대응 체계에 전달할 수 있다. 탐지된 표적이 불법 무인 비행체로 판단된 경우, 대응 체계는 예컨대 해당 불법 무인 비행체의 비행을 무력화하기 위한 조치를 취할 수 있다.In addition, the operating device 20 may transmit the detection result data received from the target detection device 30 to a response system such as UTM (Unified Threat Management). If the detected target is determined to be an illegal unmanned aerial vehicle, the response system may, for example, take steps to neutralize the flight of the unmanned aerial vehicle.

본 발명의 몇몇의 실시 예에서, 운용 장치(20)는 서버(server), 개인용 컴퓨터(personal computer), 노트북 컴퓨터, 태블릿 컴퓨터, 스마트폰을 비롯한 컴퓨팅 장치 또는 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 비롯한 프로그램 가능한 반도체 장치와 같은 하드웨어(hardware)로 구현될 수 있다. 뿐만 아니라 운용 장치(20)는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등의 프로세서를 통해 실행될 수 있는 프로그램 또는 어플리케이션과 같은 소프트웨어로 구현될 수도 있다. 나아가 운용 장치(30)는 이와 같은 하드웨어와 소프트웨어의 결합 형태로 구현될 수도 있다.In some embodiments of the present invention, the operating device 20 is a server, a personal computer, a notebook computer, a tablet computer, a computing device including a smartphone, or an application specific integrated circuit (ASIC), an FPGA ( It may be implemented with hardware such as a programmable semiconductor device including a Field Programmable Gate Array. In addition, the operating device 20 may be implemented with software such as a program or application that can be executed through a processor such as a CPU (Central Processing Unit) or a GPU (Graphic Processing Unit). Furthermore, the operating device 30 may be implemented in the form of a combination of hardware and software.

표적 탐지 장치(30)는 표적을 탐지한다. 구체적으로 표적 탐지 장치(30)는 표적을 추적하거나, 표적은 인식하는 등의 기능을 수행할 수 있다. 특히, 표적 탐지 장치(30)는 다중 센서를 구비하며, 레이더 장치(10)와 다중 센서를 함께 이용하여 표적 탐지 성능을 향상시킬 수 있다. 구체적으로, 표적 탐지 장치(30)는, 레이더 장치(10)에 의해 생성된 표적 정보를 수신하고, 표적 정보를 이용하여 다중 센서를 동작시킴으로써 표적을 자동으로 추적하는 기능을 수행할 수 있다.The target detection device 30 detects a target. Specifically, the target detection device 30 may perform a function such as tracking a target or recognizing a target. In particular, the target detection device 30 includes multiple sensors, and target detection performance may be improved by using the radar device 10 and multiple sensors together. Specifically, the target detection device 30 may perform a function of automatically tracking a target by receiving target information generated by the radar device 10 and operating multiple sensors using the target information.

표적 탐지 장치(30)는 운용 장치(20)를 통해 표적 정보를 제공받을 수도 있고, 운용 장치(20)를 거치지 않고 레이더 장치(10)로부터 표적 정보를 직접 제공받을 수도 있다. 운용 장치(20)를 통해 표적 정보를 제공받는 경우, 표적 탐지 장치(30)는 운용 장치(20)에서 미리 정해진 정책에 따라 선택된 표적 정보를 제공받을 수 있고, 레이더 장치(10)로부터 표적 정보를 직접 제공받는 경우, 표적 탐지 장치(30)는 레이더 장치(10)에서 제공받은 표적 정보 중에서 미리 정해진 우선순위에 따라 표적 정보를 선택(예컨대 위험도가 가장 높은 표적 정보를 선택)할 수 있다.The target detection device 30 may receive target information through the operating device 20, or may receive target information directly from the radar device 10 without passing through the operating device 20. When receiving target information through the operating device 20, the target detection device 30 may receive target information selected according to a predetermined policy from the operating device 20, and receive target information from the radar device 10. In the case of being directly provided, the target detection device 30 may select target information (eg, select target information with the highest risk) according to a predetermined priority from among target information provided from the radar device 10.

레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30) 중 적어도 일부는 예컨대 데이터 전송 케이블을 이용하여 직접 데이터를 주고 받을 수 있다. 이와 다르게, 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30) 중 적어도 일부는 네트워크(400)를 통해 데이터를 주고 받을 수도 있다.At least some of the radar device 10, the operating device 20, and the target detection device 30 may directly exchange data using, for example, a data transmission cable. Alternatively, at least some of the radar device 10, the operating device 20, and the target detection device 30 may exchange data through the network 400.

본 발명의 몇몇의 실시 예에서, 네트워크(400)는 LAN(Local Area Network), WAN(Wide Area Network)를 비롯한 유선 네트워크, WiFi 네트워크, 블루투스(Bluetooth) 네트워크, 셀룰러(cellular) 네트워크 등을 비롯한 무선 네트워크, 또는 유선 네트워크와 무선 네트워크의 결합 형태를 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다.In some embodiments of the present invention, the network 400 is a wireless network, including a local area network (LAN), a wired network including a wide area network (WAN), a WiFi network, a Bluetooth network, a cellular network, and the like. A network or a combination of a wired network and a wireless network may be included, but the scope of the present invention is not limited thereto.

도 2는 본 발명의 일 실시 예에 따른 레이더 장치를 설명하기 위한 도면이다.2 is a view for explaining a radar device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시 예에 따른 레이더 장치(10)는 레이더 모듈(11) 및 레이더 신호처리 모듈(13)을 포함할 수 있다.Referring to FIG. 2, the radar device 10 according to an embodiment of the present invention may include a radar module 11 and a radar signal processing module 13.

레이더 모듈(11)은 레이더 빔(beam)을 표적에 발사하고, 표적을 탐지한 레이더 신호를 획득한다. 구체적으로 레이더 모듈(11)은 표적으로부터 반사되어 되돌아오는 레이더 신호를 수광하여 표적의 위치 또는 이동 속도 등을 탐지할 수 있다.The radar module 11 fires a radar beam at the target and acquires a radar signal detecting the target. Specifically, the radar module 11 may detect a position or a moving speed of the target by receiving a radar signal reflected and returned from the target.

레이더 신호처리 모듈(13)은 레이더 모듈(11)이 획득한 레이더 신호를 처리한다. 구체적으로 레이더 신호처리 모듈(13)은 레이더 모듈(11)이 수광한 레이더 신호로부터 도 1과 관련하여 앞서 설명한 표적 정보를 생성할 수 있다. 예를 들어, 레이더 신호처리 모듈(13)은 레이더 모듈(11)이 수광한 레이더 신호로부터 표적의 고각 정보, 거리 정보, 이동 속도 정보, 이동 방향 정보 등을 생성하고, 해당 표적에 대한 식별 정보 또는 위험도 정보를 추가적으로 생성할 수 있다. 이와 같이 생성된 표적 정보는 운용 장치(20) 또는 표적 탐지 장치(30)가 판독할 수 있는 데이터 구조로 구현될 수 있다. 도 1과 관련하여 언급한 바와 같이, 표적 정보는 미리 정해진 주기에 따라 갱신될 수 있다.The radar signal processing module 13 processes the radar signal acquired by the radar module 11. Specifically, the radar signal processing module 13 may generate the target information described above with respect to FIG. 1 from the radar signal received by the radar module 11. For example, the radar signal processing module 13 generates elevation angle information, distance information, movement speed information, movement direction information, etc. of a target from the radar signal received by the radar module 11, and identification information or Risk information can be additionally created. The generated target information may be implemented in a data structure that can be read by the operating device 20 or the target detection device 30. As mentioned in connection with FIG. 1, the target information may be updated according to a predetermined period.

도 3은 본 발명의 일 실시 예에 따른 운용 장치를 설명하기 위한 도면이다.3 is a view for explaining an operating device according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 운용 장치(20)는 운용 처리 모듈(21) 및 영상 처리 모듈(23)을 포함할 수 있다.Referring to FIG. 3, the operating device 20 according to an embodiment of the present invention may include an operating processing module 21 and an image processing module 23.

운용 처리 모듈(21)은 표적 탐지 장치(30)로부터 제공되는 데이터를 처리할수 있다. 예를 들어, 운용 처리 모듈(21)은 표적 탐지 장치(30)로부터 표적에 대한 탐지 결과 또는 인식 결과에 대한 데이터를 수신하고, 해당 데이터를 UTM과 같은 대응 체계에 전달하기 위해 데이터의 포맷을 변경하거나, 필요에 따라 데이터를 가공할 수 있다.The operation processing module 21 may process data provided from the target detection device 30. For example, the operation processing module 21 changes the format of the data in order to receive data on a detection result or recognition result for a target from the target detection device 30 and transmit the data to a corresponding system such as UTM. Or, you can process the data as needed.

영상 처리 모듈(23)은 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식한다. 구체적으로 영상 처리 모듈(23)은, 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치(weight)를 사용하고, 표적 탐지 장치(30)로부터 제공되는 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 방식으로 인식 성능을 향상시킬 수 있다.The image processing module 23 recognizes a target using a neural network-based machine learning algorithm. Specifically, the image processing module 23 uses a weight previously learned through a database in which pre-data on the unmanned aerial vehicle is stored, and a new target detection result or target recognition result provided from the target detection device 30 Recognition performance can be improved by adding it as a data set and re-learning.

도 3에서는 영상 처리 모듈(23)이 운용 처리 모듈(21)에 포함된 것으로 도시되었으나, 본 발명의 범위가 이에 제한되는 것은 아니고, 표적 탐지 장치(30)에 영상 처리 모듈이 포함되도록 구현될 수도 있다. 이 경우, 표적 탐지 장치(30)에 구현된 영상 처리 모듈은 표적 탐지 장치(30)에서 생성한 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하고, 영상 처리 모듈을 통해 표적을 인식한 결과 데이터를 운용 장치(20)(예컨대 운용 처리 모듈(21))에 제공할 수 있다.In FIG. 3, the image processing module 23 is shown to be included in the operation processing module 21, but the scope of the present invention is not limited thereto, and the target detection device 30 may be implemented to include the image processing module. have. In this case, the image processing module implemented in the target detection device 30 performs a process of relearning by adding the target detection result or the target recognition result generated by the target detection device 30 as a new data set, and the image processing module The data as a result of recognizing the target may be provided to the operation device 20 (for example, the operation processing module 21).

도 4는 본 발명의 일 실시 예에 따른 표적 탐지 장치를 설명하기 위한 도면이다.4 is a view for explaining a target detection device according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 표적 탐지 장치(30)는 다중 센서(31), 다중 센서 정보 획득 모듈(33), PT(pan/tilt) 구동 모듈(35) 및 다중 센서 정보 처리 모듈(37)을 포함할 수 있다.Referring to FIG. 4, a target detection device 30 according to an embodiment of the present invention includes a multi-sensor 31, a multi-sensor information acquisition module 33, a pan/tilt (PT) driving module 35, and a multi-sensor. It may include an information processing module 37.

다중 센서(31)는 레이더 장치(10)와 함께 연동하여 표적을 탐지하기 위해 사용되는 센서를 말한다. 본 발명의 몇몇의 실시 예에서, 다중 센서(31)는 광학 센서 및 깊이 정보 추출 센서를 포함할 수 있다. 광학 센서는 예를 들어 전자 광학(Electro-Optica, EO) 센서(또는 카메라), 적외선(Infrared) 센서(또는 카메라) 등을 포함할 수 있으며, 또한 원거리에 있는 표적에 대한 영상을 획득하기 위한 줌 렌즈(zoom lens)를 더 포함할 수 있다.The multiple sensor 31 refers to a sensor used to detect a target by interlocking with the radar device 10. In some embodiments of the present invention, the multiple sensors 31 may include an optical sensor and a depth information extraction sensor. The optical sensor may include, for example, an electro-optic (Electro-Optica, EO) sensor (or camera), an infrared sensor (or camera), and the like, and also a zoom for obtaining an image of a distant target. It may further include a lens (zoom lens).

한편, 깊이 정보 추출 센서는 라이다(Light Detection And Ranging, LiDAR) 센서를 포함할 수 있다. 라이더 센서를 이용하면, 레이저를 표적에 비춤으로써 표적까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등 표적에 대한 다양한 특성들을 감지할 수 있다.Meanwhile, the depth information extraction sensor may include a LiDAR (Light Detection And Ranging, LiDAR) sensor. Using the lidar sensor, it is possible to detect various characteristics of the target, such as distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc. by shining a laser at the target.

다중 센서 정보 획득 모듈(33)은 다중 센서(31)를 이용하여 표적을 탐지한 센싱 정보를 획득할 수 있다. 센싱 정보는 표적의 2D(2-dimensional) 위치 및 3D(3-dimensional) 위치, 이동 방향, 이동 속도, 표적까지의 거리 등의 정보를 포함할 수 있다.The multi-sensor information acquisition module 33 may acquire sensing information that detects a target using the multi-sensor 31. The sensing information may include information such as a 2-dimensional (2D) position and a 3-dimensional (3D) position of the target, a movement direction, a movement speed, and a distance to the target.

PT 구동 모듈(35)은 다중 센서(31)에 장착되어 다중 센서(31)의 위치를 제어할 수 있다. 구체적으로 PT 구동 모듈(35)은 다중 센서(31)가 팬(pan) 또는 틸트(tilt) 동작을 수행하도록 제어할 수 있다. 즉, PT 구동 모듈(35)은 다중 센서(31)를 팬 또는 틸트하여 원하는 방향의 영상을 획득할 수 있도록 한다.The PT driving module 35 is mounted on the multiple sensors 31 to control the positions of the multiple sensors 31. Specifically, the PT driving module 35 may control the multiple sensors 31 to perform a pan or tilt operation. That is, the PT driving module 35 allows the multi-sensor 31 to pan or tilt to obtain an image in a desired direction.

특히, 표적 탐지 장치(30)는 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 표적 정보를 팬 및 틸트 정보로 변환하여 PT 구동 모듈(35)을 제어할 수 있다. 이에 따라, 표적 탐지 장치(30)는 레이더 장치(10)에서 탐지된 표적을 추적할 수 있게 된다.In particular, the target detection device 30 may control the PT driving module 35 by converting target information received from the radar device 10 or the operating device 20 into pan and tilt information. Accordingly, the target detection device 30 can track a target detected by the radar device 10.

한편, 표적 탐지 장치(30)는 위와 같이 다중 센서(31)의 위치를 제어한 후, 광학 센서의 줌 값 및 포커스 값을 조정할 수 있다. 즉, 다중 센서(31)는 위치 이동을 한 후, 미리 설정된 초기 초점 거리(focal length)에 기초하여 줌 값을 조정하거나, 표적 정보 중 거리 정보에 기초하여 포커스 값을 조정할 수 있다. 초기 초점 거리를 설정하는 실시 예에 대해서는 도 9 내지 도 12를 참조하여 후술하도록 한다.Meanwhile, the target detection device 30 may control the position of the multiple sensors 31 as described above, and then adjust the zoom value and the focus value of the optical sensor. That is, after moving the position, the multi-sensor 31 may adjust a zoom value based on a preset initial focal length or may adjust a focus value based on distance information among target information. An embodiment of setting the initial focal length will be described later with reference to FIGS. 9 to 12.

이와 같이, 표적 탐지 장치(30)는, 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 표적 정보에 기초하여, 다중 센서(31)의 PTZF를 자동 설정할 수 있다. 여기서 PTZF는 곧 팬, 틸트, 줌, 포커스를 의미한다. In this way, the target detection device 30 may automatically set the PTZF of the multi-sensor 31 based on the target information received from the radar device 10 or the operating device 20. Here, PTZF means pan, tilt, zoom, and focus.

다중 센서 정보 처리 모듈(37)은 다중 센서 정보 획득 모듈(33)이 획득한 센싱 정보를 처리할 수 있다. 그리고 다중 센서 정보 처리 모듈(37)은 다중 센서(31)를 통해 획득한 영상 정보 및 깊이 정보 중 적어도 하나를 포함하는 다중 센서 정보를 생성할 수 있다.The multi-sensor information processing module 37 may process sensing information acquired by the multi-sensor information acquisition module 33. In addition, the multi-sensor information processing module 37 may generate multi-sensor information including at least one of image information and depth information acquired through the multi-sensor 31.

한편, 다중 센서 정보 처리 모듈(37)은 다중 센서 정보를 부호화하고, 부호화된 다중 센서 정보를 운용 장치(20)에 전송할 수 있다. 그러면 운용 장치(20)는 부호화된 다중 센서 정보를 복호화하고, 복호화된 다중 센서 정보에 기초하여 관심 표적을 선택할 수 있다. 관심 표적은 레이더 장치(10)가 탐지한 표적 중 추적이 필요하다고 판단된 표적을 의미할 수 있다.Meanwhile, the multi-sensor information processing module 37 may encode multi-sensor information and transmit the encoded multi-sensor information to the operating device 20. Then, the operating device 20 may decode the encoded multi-sensor information and select a target of interest based on the decoded multi-sensor information. The target of interest may mean a target determined to need tracking among targets detected by the radar device 10.

운용 장치(20)는, 선택한 관심 표적에 대한 관심 표적 정보를 생성하고, 관심 표적 정보를 표적 탐지 장치(30)에 전달할 수 있다. 본 발명의 몇몇의 실시 예에서, 관심 표적 정보는 관심 표적의 2D 좌표 정보(즉, 2D 영상에서의 표적의 x 좌표 및 y 좌표), 이동 속도 정보 및 크기 정보 중 적어도 하나를 포함할 수 있다.The operating device 20 may generate target information of interest for the selected target of interest and transmit the target information of interest to the target detection device 30. In some embodiments of the present invention, the target of interest information may include at least one of 2D coordinate information of the target of interest (ie, x coordinate and y coordinate of the target in a 2D image), movement speed information, and size information.

운용 장치(20)로부터 관심 표적 정보를 수신한 표적 탐지 장치(30)는 관심 표적 정보를 이용하여 관심 표적을 추적하거나, 관심 표적을 인식할 수 있다.The target detection device 30 receiving the target of interest information from the operating device 20 may track the target of interest or recognize the target of interest using the target of interest information.

본 발명의 몇몇의 실시 예에서, 도 3과 관련하여 앞서 설명한 바와 같이, 표적 탐지 장치(30)는, 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치(weight)를 사용하고, 관심 표적 탐지 결과 또는 관심 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 실행하는 영상 처리 모듈을 포함할 수 있다. 이와 같이, 표적 탐지 장치(30)는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 관심 표적을 인식한 후, 그 인식 결과 데이터를 운용 장치(20)에 제공할 수 있다.In some embodiments of the present invention, as described above with respect to FIG. 3, the target detection device 30 uses a weight previously learned through a database storing pre-data on an unmanned aerial vehicle, and It may include an image processing module that executes a neural network-based machine learning algorithm that performs a process of re-learning by adding a target detection result or a target recognition result of interest as a new data set. In this way, the target detection device 30 may recognize a target of interest using a neural network-based machine learning algorithm, and then provide the recognition result data to the operating device 20.

한편, 본 발명의 몇몇의 실시 예에서, 운용 장치(20)는, 미리 정해진 정책에 따라 관심 표적을 변경하고, 변경한 관심 표적에 대한 변경 관심 표적 정보를 생성하고, 표적 탐지 장치(30)에 변경 관심 표적 정보를 전달할 수 있다. 그리고 운용 장치(20)로부터 변경 관심 표적 정보를 수신한 표적 탐지 장치(30)는 변경 관심 표적 정보를 이용하여 추적 및 인식 대상을 변경할 수 있다.On the other hand, in some embodiments of the present invention, the operating device 20 changes a target of interest according to a predetermined policy, generates changed target of interest information for the changed target of interest, and sends the target detection device 30 Change interest target information can be communicated. In addition, the target detection device 30 receiving the change-interest target information from the operating device 20 may change the tracking and recognition target by using the change-interest target information.

도 5는 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.5 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 레이더 장치(10)는 레이더 신호를 이용하여 표적을 탐지한 후, 탐지한 표적에 대한 표적 정보(초기 표적 정보)를 획득(S101)할 수 있다. 그리고 레이더 장치(10)는 초기 표적 정보를 운용 장치(20)에 전달(S103)할 수 있다.5, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the radar device 10 detects a target using a radar signal, and then receives target information (initial target information) for the detected target. It can be acquired (S101). In addition, the radar device 10 may transmit initial target information to the operating device 20 (S103).

운용 장치(20)는 레이더 장치(10)로부터 수신한 초기 표적 정보를 분배(S105)할 수 있다. 예를 들어, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신하고 표적 탐지 장치(30)가 복수인 경우, 운용 장치(20)는 복수의 초기 표적 정보 각각의 위험도 정보에 기초하여, 위험도가 가장 높은 초기 표적 정보부터 순서대로 복수의 표적 탐지 장치(30)에 전달(S107)할 수 있다. 다른 예로, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신하고 표적 탐지 장치(30)가 1 개인 경우, 운용 장치(20)는 복수의 초기 표적 정보 각각의 위험도 정보에 기초하여, 위험도가 가장 높은 초기 표적 정보를 단일의 표적 탐지 장치(30)에 전달(S107)할 수 있다.The operating device 20 may distribute the initial target information received from the radar device 10 (S105). For example, when the operating device 20 receives a plurality of target information from the radar device 10 and there are a plurality of target detection devices 30, the operating device 20 is based on the risk information of each of the plurality of initial target information. Based on the initial target information with the highest risk, it may be transmitted to the plurality of target detection devices 30 in order (S107). As another example, when the operating device 20 receives a plurality of target information from the radar device 10 and the target detection device 30 is one, the operating device 20 is based on the risk information of each of the plurality of initial target information. Thus, initial target information with the highest risk may be transmitted to a single target detection device 30 (S107).

한편, 레이더 장치(10)는 초기 표적 정보를 표적 탐지 장치(30)에 직접 전달(S109)할 수 있다. 즉, 표적 탐지 장치(30)는 레이더 장치(10)로부터 표적 정보를 직접 제공받을 수도 있다. 이 경우, 예를 들어, 표적 탐지 장치(30)는 레이더 장치(10)에서 제공받은 표적 정보 중에서, 예컨대 위험도가 가장 높은 초기 표적 정보를 선택할 수 있다.Meanwhile, the radar device 10 may directly transmit initial target information to the target detection device 30 (S109). That is, the target detection device 30 may directly receive target information from the radar device 10. In this case, for example, the target detection device 30 may select, for example, initial target information with the highest risk from among the target information provided by the radar device 10.

다음으로, 표적 탐지 장치(30)는 다중 센서(31)의 PTZF를 자동 설정하고, 다중 센서(31)를 이용하여 표적을 탐지한 센싱 정보를 생성(S111)할 수 있다.Next, the target detection device 30 may automatically set the PTZF of the multiple sensors 31 and generate sensing information that detects the target by using the multiple sensors 31 (S111).

상기 단계(S111)는 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 초기표적 정보를 팬 및 틸트 정보로 변환(S1111)하는 것과, 팬 및 틸트 정보를 이용하여 다중 센서(31)의 위치를 이동(S1113)하여, 원하는 방향의 영상을 획득할 수 있도록 하는 것을 포함할 수 있다.The step (S111) is to convert the initial target information received from the radar device 10 or the operating device 20 into pan and tilt information (S1111), and the position of the multi-sensor 31 using pan and tilt information. It may include moving (S1113) to obtain an image in a desired direction.

또한, 상기 단계(S111)는 다중 센서(31)(예컨대 광학 센서)의 줌 값을 조정(S1115)하는 것과, 포커스 값을 조정(S1117)하는 것을 포함할 수 있다.In addition, the step S111 may include adjusting the zoom value of the multiple sensors 31 (eg, optical sensor) (S1115) and adjusting the focus value (S1117).

다음으로, 표적 탐지 장치(30)는 센싱 정보를 처리하여, 다중 센서(31)를 통해 획득한 영상 정보 및 깊이 정보 중 적어도 하나를 포함하는 다중 센서 정보를 생성(S113)할 수 있다.Next, the target detection device 30 may process the sensing information to generate multi-sensor information including at least one of image information and depth information acquired through the multi-sensor 31 (S113).

이어서, 표적 탐지 장치(30)는 다중 센서 정보를 부호화(S115)하고, 부호화된 다중 센서 정보를 운용 장치(20)에 전송(S117)할 수 있다.Subsequently, the target detection device 30 may encode the multi-sensor information (S115) and transmit the encoded multi-sensor information to the operating device 20 (S117).

도 6은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.6 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 운용 장치(20)는 부호화된 다중 센서 정보를 복호화하고, 복호화된 다중 센서 정보(예컨대 복호화된 영상 정보)를 재생(S119)할 수 있다.6, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the operating device 20 decodes the encoded multi-sensor information and reproduces the decoded multi-sensor information (for example, decoded image information) ( S119) You can.

다음으로, 운용 장치(20)는, 복호화된 다중 센서 정보에 기초하여 관심 표적을 선택하고, 선택한 관심 표적에 대한 관심 표적 정보를 생성(S121)할 수 있다. 그리고 운용 장치(20)는 관심 표적 정보를 표적 탐지 장치(30)에 전달(S123)할 수 있다.Next, the operating device 20 may select a target of interest based on the decoded multi-sensor information and generate target information of interest for the selected target of interest (S121). In addition, the operating device 20 may transmit the target information of interest to the target detection device 30 (S123).

관심 표적 정보를 수신한 표적 탐지 장치(30)는 관심 표적 정보를 이용하여 관심 표적을 추적(S125)할 수 있다. 특히, 표적 탐지 장치(30)는 관심 표적(즉, 무인 비행체)를 자동 추적할 수 있다.The target detection device 30 receiving the target of interest information may track the target of interest by using the target of interest information (S125). In particular, the target detection device 30 may automatically track a target of interest (ie, an unmanned aerial vehicle).

예를 들어, 표적 탐지 장치(30)는 관심 표적을 자동 추적하면서, 관심 표적의 위치 정보를 보정할 수 있다. 즉, 표적 탐지 장치(30)는 주기적으로 탐지를 수행하는 방식으로 에러 보정을 수행하여, 관심 표적의 위치 정보를 주기적으로 보정할 수 있다. 본 명세서에서 주기의 의미는 일정 시간 간격을 갖는 주기를 의미할 수도 있고, 가변적인 시간 간격을 갖는 주기를 의미할 수도 있다.For example, the target detection device 30 may correct the location information of the target of interest while automatically tracking the target of interest. That is, the target detection device 30 may perform error correction in a manner that periodically performs detection, thereby periodically correcting the location information of the target of interest. In the present specification, the meaning of a period may mean a period having a predetermined time interval or a period having a variable time interval.

한편, 도 1과 관련하여 앞서 설명한 바와 같이, 레이더 장치(10)는 미리 정해진 주기에 따라 초기 표적 정보를 갱신할 수 있다. 표적 탐지 장치(30)는 갱신된 초기 표적 정보를 반영하여 다중 센서(31)의 줌 값을 조정할 수 있다.Meanwhile, as described above with respect to FIG. 1, the radar device 10 may update initial target information according to a predetermined period. The target detection device 30 may adjust the zoom value of the multiple sensors 31 by reflecting the updated initial target information.

구체적으로, 표적 탐지 장치(30)는 갱신된 표적의 식별 정보, 거리 정보, 이동 속도 정보 등을 비롯한 갱신된 초기 표적 정보와, 탐지를 통해 획득한 관심 표적의 크기를 고려하여 다중 센서(31)의 줌 값을 조정할 수 있다. 예를 들어, 속도 정보를 반영하는 경우, 표적의 속도가 빠른 경우 초점 거리를 낮추어, 다중 센서(31)로 센싱되는 영상에서 표적이 이동 가능한 범위를 넓힐 수 있다. 그러면 자동 추적 시 표적을 놓치지 않을 수 있다. 일반적으로 표적 거리, 표적 크기, 표적 속도와 초점 거리는 다음과 같은 관계를 가질 수 있다.Specifically, the target detection device 30 considers the updated initial target information including the updated identification information, distance information, movement speed information, etc. of the target, and the multi-sensor 31 in consideration of the size of the target of interest acquired through detection. You can adjust the zoom value of. For example, when the speed information is reflected, when the speed of the target is fast, the focal length may be lowered to widen the range in which the target can move in the image sensed by the multi-sensor 31. That way, you won't miss the target during automatic tracking. In general, target distance, target size, target speed and focal length may have the following relationship.

Figure pat00001
Figure pat00001

한편, 표적 탐지 장치(30)는 탐지된 표적 영역(Region Of Interest, ROI)을 대상으로, 주기적으로 포커스 값 조정을 수행할 수 있다. 이와 달리, 표적 탐지 장치(30)는 탐지된 표적 영역(ROI)을 대상으로, 표적 거리, 표적 크기 등의 변화량이 미리 정해진 수준 또는 범위를 벗어나는 경우에 포커스 값 조정을 수행할 수 있다.Meanwhile, the target detection device 30 may periodically adjust the focus value for the detected region of interest (ROI). In contrast, the target detection apparatus 30 may perform focus value adjustment when a change in a target distance, a target size, etc. is out of a predetermined level or range for the detected target area ROI.

한편, 표적 탐지 장치(30)는, 자동 추적을 수행하는 동안 표적을 놓치지 않도록 하기 위해, 표적의 이동에 따라 팬 및 틸트 값을 지속적으로 갱신하여 PT 구동 모듈(35)을 제어할 수 있다. 예를 들어, 표적 탐지 장치(30)는, 자동 추적을 수행하는 동안 표적이, 다중 센서(31)로 센싱되는 영상의 중심 또는 중심을 포함하는 미리 정해진 영역에 위치하도록 팬 및 틸트 값을 지속적으로 갱신하여 PT 구동 모듈(35)을 제어할 수 있다.Meanwhile, the target detection device 30 may control the PT driving module 35 by continuously updating the pan and tilt values according to the movement of the target in order not to miss the target while performing automatic tracking. For example, the target detection device 30 continuously adjusts the pan and tilt values so that the target is located in the center or in a predetermined area including the center of the image sensed by the multi-sensor 31 while performing automatic tracking. By updating, the PT driving module 35 can be controlled.

표적 탐지 장치(30)는 관심 표적에 대한 추적 결과를 운용 장치(20)에 전달(S127)할 수 있다. 그러면 운용 장치(20)는, 필요에 따라 해당 추적 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.The target detection device 30 may transmit the tracking result for the target of interest to the operating device 20 (S127). Then, the operating device 20 may process the corresponding tracking result data as necessary, and then transmit it to a corresponding system such as UTM (S129).

도 7은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.7 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 운용 장치(20)는, 예컨대 표적 탐지 장치(30)가 관심 표적에 대한 자동 추적을 수행(S125)하는 중, 미리 정해진 정책에 따라 관심 표적을 변경하고, 변경한 관심 표적에 대한 변경 관심 표적 정보를 생성(S131)할 수 있다. 예를 들어, 운용 장치(20)는 현재 관심 표적보다 더 위험도가 높은 표적을 인지한 경우, 해당 표적을 관심 표적으로 변경하고 이에 대한 관심 표적 정보를 생성할 수 있다.Referring to Figure 7, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the operating device 20, for example, while the target detection device 30 performs automatic tracking on the target of interest (S125), in advance A target of interest may be changed according to a predetermined policy, and change interest target information for the changed target of interest may be generated (S131). For example, when the operating device 20 recognizes a target having a higher risk than the current target of interest, the operating device 20 may change the target to a target of interest and generate information about the target of interest.

이어서 운용 장치(20)는 변경된 관심 표적 정보를 표적 탐지 장치(30)에 전달(S133)할 수 있다. 그러면 표적 탐지 장치(30)는 변경된 관심 표적 정보(즉, 변경 관심 표적 정보)를 이용하여 자동 추적 대상을 변경하고, 변경된 관심 표적에 대한 자동 추적을 수행(S135)할 수 있다.Subsequently, the operating device 20 may transmit the changed target information of interest to the target detection device 30 (S133). Then, the target detection device 30 may change an automatic tracking target using the changed target of interest information (ie, changed target of interest information) and perform automatic tracking on the changed target of interest (S135).

한편, 운용 장치(20)는 레이더 장치(10)로부터 탐지된 신규 표적에 대한 신규 표적 정보를 수신(S137)하고, 신규 표적 정보에 기초하여 신규 표적을 관심 표적으로 변경하고 이에 대한 관심 표적 정보를 생성(S139)할 수 있다.On the other hand, the operating device 20 receives new target information on the new target detected from the radar device 10 (S137), changes the new target into a target of interest based on the new target information, and changes the target information of interest thereto. Can be created (S139).

이어서 운용 장치(20)는 변경된 관심 표적 정보를 표적 탐지 장치(30)에 전달(S141)할 수 있다. 그러면 표적 탐지 장치(30)는 변경된 관심 표적 정보를 이용하여 자동 추적을 수행(S143)할 수 있다.Subsequently, the operating device 20 may transmit the changed target information of interest to the target detection device 30 (S141). Then, the target detection device 30 may perform automatic tracking using the changed target information of interest (S143).

다음으로, 표적 탐지 장치(30)는 변경된 관심 표적에 대한 추적 결과를 운용 장치(20)에 전달(S127)할 수 있다. 그러면 운용 장치(20)는, 필요에 따라 해당 추적 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.Next, the target detection device 30 may transmit the changed tracking result of the target of interest to the operating device 20 (S127). Then, the operating device 20 may process the corresponding tracking result data as necessary, and then transmit it to a corresponding system such as UTM (S129).

도 8은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.8 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 표적 탐지 장치(30)는, 관심 표적에 대한 자동 추적을 수행(S125)한 후, 관심 표적을 인식할 수 있다. 관심 표적의 크기가 인식이 가능한 크기보다 작은 경우에, 표적 탐지 장치(30)는 관심 표적의 이동 속도를 고려하여 관심 표적의 추적을 놓치지 않는 선에서 다중 센서(30)에 대한 줌 동작을 수행하거나, 초점 거리가 커지도록 조정할 수 있다.Referring to FIG. 8, in the method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, the target detection device 30 may recognize a target of interest after performing automatic tracking on a target of interest (S125). When the size of the target of interest is smaller than the size that can be recognized, the target detection device 30 performs a zoom operation on the multiple sensors 30 in a line that does not miss tracking of the target of interest in consideration of the moving speed of the target of interest. , Can be adjusted to increase the focal length.

표적 탐지 장치(30)는 관심 표적에 대한 인식 결과(즉, 표적 인식 결과)를 운용 장치(20)에 전달(S147)할 수 있다.The target detection device 30 may transmit the recognition result for the target of interest (ie, the target recognition result) to the operating device 20 (S147).

운용 장치(20)는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식하기 위한 영상 처리를 수행(S149)할 수 있다. 구체적으로, 운용 장치(20)는 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치를 사용하고, 표적 탐지 장치(30)로부터 제공되는 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 방식으로 인식 성능을 향상시킬 수 있다.The operating device 20 may perform image processing for recognizing a target using a neural network-based machine learning algorithm (S149). Specifically, the operating device 20 uses the weights previously learned through the database in which the pre-data on the unmanned aerial vehicle is stored, and adds the target detection result or target recognition result provided from the target detection device 30 as a new data set. Therefore, recognition performance can be improved by relearning.

한편, 표적 탐지 장치(30) 역시 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식하기 위한 영상 처리를 수행(S151)할 수 있다. 구체적으로, 표적 탐지 장치(30)는, 표적 탐지 장치(30)에서 생성한 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하고, 영상 처리 모듈을 통해 표적을 인식한 결과 데이터를 운용 장치(20)에 제공(S153)할 수 있다.Meanwhile, the target detection device 30 may also perform image processing for recognizing a target using a neural network-based machine learning algorithm (S151). Specifically, the target detection device 30 performs a process of re-learning by adding the target detection result or the target recognition result generated by the target detection device 30 as a new data set, and recognizes the target through the image processing module. As a result, data may be provided to the operating device 20 (S153).

그러면 운용 장치(20)는, 필요에 따라 해당 인식 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.Then, the operating device 20 may process the corresponding recognition result data as necessary and then transmit it to a corresponding system such as UTM (S129).

도 9 내지 도 12는 본 발명의 일 실시 예에 따른 다중 센서에 대한 초점 거리를 설정하는 방법을 설명하기 위한 도면들이다.9 to 12 are diagrams for explaining a method of setting a focal length for multiple sensors according to an embodiment of the present invention.

도 4를 참조하여 앞서 설명한 바와 같이, 표적 탐지 장치(30)는 다중 센서(31)의 위치 이동을 한 후, 초기 초점 거리에 기초하여 다중 센서(31)의 광학 센서에 대한 줌 값을 조정할 수 있다. 이를 위해, 레이더 장치(10)로부터 획득한 3D 표적의 정확도 또는 해상도를 고려할 수 있다. 이와 같은 해상도는 레이더 빔(beam)의 해상도에 따라 정의된다. 일반적으로 광학 센서(예컨대 전자 광학(Electro-Optica, EO) 센서, 적외선(Infrared) 센서 등)의 해상도보다 레이더 장치(10)의 해상도가 현저히 낮다. 그러므로 표적의 탐지를 위해 레이더 빔에 대한 배열 및 규격에 대한 분석이 필요할 수 있다.As described above with reference to FIG. 4, after moving the position of the multiple sensors 31, the target detection device 30 may adjust the zoom value of the optical sensor of the multiple sensors 31 based on the initial focal length. have. To this end, the accuracy or resolution of the 3D target obtained from the radar device 10 may be considered. This resolution is defined according to the resolution of the radar beam. In general, the resolution of the radar device 10 is significantly lower than that of an optical sensor (eg, an Electro-Optica (EO) sensor, an infrared sensor, etc.). Therefore, it may be necessary to analyze the arrangement and specifications of the radar beam for target detection.

도 9를 참조하면, 레이더 빔은 그 특성상 직각 형태(특정 거리에서 직사각형)로 모양이 이루어지지 않으며, 방사 지점을 중심으로 거리가 멀어짐에 따라 타원형의 형태로 점점 더 크기가 커지는 모양으로 형성된다. 다중 센서(31)의 초기 초점 거리는 다음과 같은 방식으로 설정할 수 있다.Referring to FIG. 9, the radar beam is not formed in a right-angled shape (a rectangle at a specific distance) due to its characteristics, and is formed in an elliptical shape and gradually increasing in size as the distance from the radiation point increases. The initial focal length of the multi-sensor 31 may be set in the following manner.

먼저 레이더 장치(10)로부터 획득한 3D 표적의 정확도를 반영하기 위해, 하나의 레이더 빔이 지원하는 방위각과 고각 방향의 빔 크기에 기반하여, 최대 탐지 거리에서 커버 가능한 레이더 빔 영역의 크기를 계산한다. 예를 들어, 방위각 방향으로 1.5°, 고각 방향으로 5.0°에 해당하는 직사각형을 하나의 레이더 빔의 크기로 가정하면, 레이더 빔 간의 중첩을 고려하지 않을 경우 방위각과 고각 방향의 커버리지(coverage)는 표 1의 (a)(b)와 같다(단위: m).First, in order to reflect the accuracy of the 3D target acquired from the radar device 10, the size of the radar beam area that can be covered at the maximum detection distance is calculated based on the azimuth angle supported by one radar beam and the beam size in the elevation direction. . For example, if a rectangle corresponding to 1.5° in the azimuth direction and 5.0° in the elevation direction is assumed as the size of one radar beam, the coverage in the azimuth and elevation directions is shown in the table when overlapping between the radar beams is not considered. Same as (a) (b) in 1 (unit: m).

Figure pat00002
Figure pat00002

이어서 도 10을 참조하면, 무인 비행체의 이동 방향을 고려하여 탐지 윈도우(W)를 설정하기 위해, 포함할 레이더 셀(CELL)의 개수를 결정하고, 해당 레이더 셀(CELL)의 전체 ROI 범위를 계산한다. 예를 들어, 방위각 방향으로 1.5°, 고각 방향으로 5.0°인 레이더 빔에 대해 무인 비행체의 이동 방향 정보를 이용하는 경우, 임의 지점의 무인비행체는 어떠한 방향으로 움직이더라도

Figure pat00003
동안은 4 개의 레이더 셀(CELL) 범위 내에 존재하게 된다.
Figure pat00004
는 표적에 대한 탐지 시간을 고려하여 결정이 되지만, 3 km 거리에서 레이더 셀(CELL)의 공간 넓이(dimension)가 방위각 방향으로 약 79 m 이고 고각 방향으로 약 262 m 인 점을 고려하면, 4 개의 레이더 셀(CELL)의 범위는 표 1의 (c)(d)와 같이 약 157 m x 524 m 를 커버해야 한다.Next, referring to FIG. 10, in order to set the detection window W in consideration of the moving direction of the unmanned aerial vehicle, the number of radar cells (CELL) to be included is determined, and the total ROI range of the radar cell (CELL) is calculated. do. For example, when using information on the direction of movement of an unmanned aerial vehicle for a radar beam of 1.5° in the azimuth direction and 5.0° in the elevation direction, the unmanned aerial vehicle at any point may move in any direction.
Figure pat00003
During the period, it is within the range of four radar cells (CELL).
Figure pat00004
Is determined in consideration of the detection time for the target, but considering that the spatial dimension of the radar cell at a distance of 3 km is about 79 m in the azimuth direction and about 262 m in the elevation direction, four The range of the radar cell (CELL) should cover about 157 mx 524 m as shown in Table 1 (c) (d).

이어서 도 11 및 도 12를 참조하면, 4 : 3의 종횡비가 일반적인 카메라 센서를 사용하는 산업용 카메라를 기준으로 할 때, 종횡을 바꾸어 수직 방향으로 세워서 활용할 경우, 고각 방향으로 2 개 셀의 커버리지를 갖는 카메라 센서는 방위각 방향으로 약 4개의 셀 커버리지를 가지게 된다(4 x 2). 따라서 실제적인 탐지 윈도우(W)는 도 11과 같은 형태를 나타내게 된다. 특히, 레이다 셀(CELL) 내에서 무인비행장치의 정확한 위치를 알 수 없으므로, 탐지 윈도우(W) 설정시 도 12와 같은 형태로 영역을 설정하여 영상을 획득하고 탐지 알고리즘을 수행하는 것이 효율적일 수 있다.Next, referring to FIGS. 11 and 12, when the aspect ratio of 4:3 is based on an industrial camera using a general camera sensor, when the aspect ratio is changed and used vertically, it has a coverage of two cells in the elevation direction. The camera sensor has about 4 cell coverage in the azimuth direction (4 x 2). Accordingly, the actual detection window W has a shape as shown in FIG. 11. In particular, since it is not possible to know the exact location of the unmanned aerial vehicle within the radar cell (CELL), it may be efficient to acquire an image and perform a detection algorithm by setting an area as shown in FIG. 12 when setting the detection window (W). .

이후, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 후보가 될 수 있는 초점 거리들을 계산하고, 이 중 앞서 계산된 커버리지를 만족하는 초점 거리를 초기 초점 거리로 최종 선택할 수 있다. 예를 들어, 앞서 결정한 방위각 방향으로 4 배, 고각 방향으로 2 배의 ROI 확보를 위해서는 255 mm의 초점 거리가 필요할 수 있다. 아래의 표 2는 3 km 기준의 초점 거리에 따른 PoT 크기와 커버리지를 나타낸 것이다.Thereafter, focal lengths that can be candidates may be calculated based on the minimum detectable Pixels on Target (PoT), and a focal length that satisfies the previously calculated coverage may be finally selected as the initial focal length. For example, a focal length of 255 mm may be required to secure an ROI of 4 times in the azimuth direction determined previously and 2 times in the elevation direction. Table 2 below shows the PoT size and coverage according to the focal length based on 3 km.

Figure pat00005
Figure pat00005

이제까지 설명한 본 발명의 실시 예들에 따르면, 레이더와 광학 센서, 깊이 정보 추출 센서 등의 여러 센서를 함께 운용하여 무인 비행체의 탐지 속도 및 품질을 높일 수 있다. 이에 따라 무인 비행체 인식 품질을 향상시킬 수 있고, 무인 비행체의 추적 성능을 향상시킬 수 있으며, 나아가 탐지된 무인 비행체의 불법성 여부를 보다 정확하게 판단할 수 있다.According to the embodiments of the present invention described so far, it is possible to increase the detection speed and quality of an unmanned aerial vehicle by operating together several sensors such as a radar, an optical sensor, and a depth information extraction sensor. Accordingly, it is possible to improve the recognition quality of the unmanned aerial vehicle, improve the tracking performance of the unmanned aerial vehicle, and further accurately determine whether the detected unmanned aerial vehicle is illegal.

도 13은 본 발명의 일 실시 예에 따른 컴퓨팅 시스템을 나타내는 도면이다.13 is a diagram illustrating a computing system according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 다양한 실시 예에 따른 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)는 컴퓨팅 시스템(4000)으로 구현될 수 있다.Referring to FIG. 13, the radar device 10, the operating device 20, and the target detection device 30 according to various embodiments of the present disclosure may be implemented as a computing system 4000.

컴퓨터 시스템(4000)은 버스(420)를 통해 통신하는 프로세서(410), 메모리(430), 사용자 인터페이스 입력 장치(440), 사용자 인터페이스 출력 장치(450) 및 저장 장치(460) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(4000)은 또한 네트워크에 전기적으로 접속되는 네트워크 인터페이스(470)를 포함할 수 있다. 네트워크 인터페이스(470)는 네트워크를 통해 다른 개체와 신호를 송신 또는 수신할 수 있다.The computer system 4000 includes at least one of a processor 410, a memory 430, a user interface input device 440, a user interface output device 450, and a storage device 460 communicating through a bus 420. can do. Computer system 4000 may also include a network interface 470 that is electrically connected to a network. The network interface 470 may transmit or receive signals with other entities through a network.

프로세서(410)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(430) 또는 저장 장치(460)에 저장된 명령을 실행하는 임의의 반도체 장치일 수 있다. 프로세서(410)는 도 1 내지 도 12에서 설명한 기능 및 방법들을 구현하도록 구성될 수 있다. The processor 410 may be a central processing unit (CPU) or any semiconductor device that executes instructions stored in the memory 430 or the storage device 460. The processor 410 may be configured to implement the functions and methods described in FIGS. 1 to 12.

메모리(430) 및 저장 장치(460)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory)(531) 및 RAM(random access memory)(432)를 포함할 수 있다. 본 발명의 실시 예에서 메모리(430)는 프로세서(410)의 내부 또는 외부에 위치할 수 있고, 메모리(430)는 이미 알려진 다양한 수단을 통해 프로세서(410)와 연결될 수 있다.The memory 430 and the storage device 460 may include various types of volatile or nonvolatile storage media. For example, the memory may include a read only memory (ROM) 531 and a random access memory (RAM) 432. In an embodiment of the present invention, the memory 430 may be located inside or outside the processor 410, and the memory 430 may be connected to the processor 410 through various known means.

또한, 본 발명의 다양한 실시 예에 따른 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)의 기능 중 적어도 일부는 컴퓨팅 시스템(4000)에서 실행되는 프로그램 또는 소프트웨어로 구현될 수 있고, 프로그램 또는 소프트웨어는 컴퓨터로 판독 가능한 매체에 저장될 수 있다.In addition, at least some of the functions of the radar device 10, the operating device 20, and the target detection device 30 according to various embodiments of the present invention may be implemented as a program or software executed in the computing system 4000, , The program or software may be stored in a computer-readable medium.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and ordinary knowledge in the technical field to which the present invention belongs, using the basic concept of the present invention defined in the following claims. Various modifications and improved forms of those who have are also within the scope of the present invention.

Claims (1)

레이더 신호를 이용하여 표적을 탐지하고, 상기 표적에 대한 표적 정보를 생성하는 레이더 장치;
다중 센서를 구비하고, 상기 표적 정보를 이용하여 상기 다중 센서를 동작시켜 상기 표적을 추적하는 표적 탐지 장치; 및
상기 레이더 장치로부터 상기 표적 정보를 수신하고, 미리 정해진 정책에 따라 상기 표적 탐지 장치에 상기 표적 정보를 전달하는 운용 장치
를 포함하되,
상기 다중 센서의 초기 초점 거리는, 상기 레이더 장치에서 발사되는 하나의 레이더 빔이 지원하는 방위각 및 고각 방향의 빔 크기에 기반하여, 레이더 셀의 전체 ROI 범위를 계산하고, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 계산된 후보 초점 거리 중 상기 전체 ROI 범위를 만족하는 초점 거리를 선택함으로써 결정되고,
상기 레이더 장치는 미리 정해진 주기에 따라 상기 표적 정보를 갱신하고, 상기 표적 탐지 장치는 상기 갱신된 표적 정보의 표적 크기, 표적 속도, 표적 거리를 반영하여 상기 다중 센서의 초점 거리를 조정하는 무인 비행체 탐지 시스템.
A radar device for detecting a target using a radar signal and generating target information for the target;
A target detection device having multiple sensors and tracking the target by operating the multiple sensors using the target information; And
An operating device that receives the target information from the radar device and delivers the target information to the target detection device according to a predetermined policy
Including,
The initial focal length of the multi-sensor is based on the beam size in the azimuth and elevation directions supported by one radar beam emitted from the radar device, and calculates the entire ROI range of the radar cell, and detects the minimum possible Pixels on Target It is determined by selecting a focal length that satisfies the entire ROI range from among the candidate focal lengths calculated based on ),
The radar device updates the target information according to a predetermined period, and the target detection device adjusts the focal length of the multiple sensors by reflecting the target size, target speed, and target distance of the updated target information. system.
KR1020190093068A 2019-07-31 2019-07-31 Method and system for detecting aerial vehicle KR20210014951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190093068A KR20210014951A (en) 2019-07-31 2019-07-31 Method and system for detecting aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190093068A KR20210014951A (en) 2019-07-31 2019-07-31 Method and system for detecting aerial vehicle

Publications (1)

Publication Number Publication Date
KR20210014951A true KR20210014951A (en) 2021-02-10

Family

ID=74561400

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190093068A KR20210014951A (en) 2019-07-31 2019-07-31 Method and system for detecting aerial vehicle

Country Status (1)

Country Link
KR (1) KR20210014951A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559135B1 (en) * 2023-02-23 2023-07-25 주식회사 유투에스알 AI convergence drone detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559135B1 (en) * 2023-02-23 2023-07-25 주식회사 유투에스알 AI convergence drone detection system

Similar Documents

Publication Publication Date Title
CN109358650B (en) Routing inspection path planning method and device, unmanned aerial vehicle and computer readable storage medium
US20180032042A1 (en) System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data
WO2018095278A1 (en) Aircraft information acquisition method, apparatus and device
US11353891B2 (en) Target tracking method and apparatus
US7561098B2 (en) System and method for estimating airborne radar antenna pointing errors
US20170102699A1 (en) Drone control through imagery
KR101948569B1 (en) Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same
CN111201448B (en) Method and device for generating an inverted sensor model and method for identifying obstacles
US10598791B2 (en) Object detection based on Lidar intensity
KR20210152036A (en) The laser scan system, the laser scan method, and the movement laser scan system and program
CN104932524A (en) Unmanned aerial vehicle and method for omnidirectional obstacle avoidance
CN109443345B (en) Positioning method and system for monitoring navigation
CN112106111A (en) Calibration method, calibration equipment, movable platform and storage medium
CN108169729A (en) The method of adjustment of the visual field of laser radar, medium, laser radar system
US20220253057A1 (en) Image processing-based laser emission and dynamic calibration apparatus and method, device and medium
US20190147749A1 (en) System and Method for Mission Planning, Flight Automation, and Capturing of High-Resolution Images by Unmanned Aircraft
JP2019053501A (en) Flying device, management device, flight management method and program
JP7258732B2 (en) Apparatus, program and method for identifying terminal based on correspondence between communication type and target type
CN113959444A (en) Navigation method, device and medium for unmanned equipment and unmanned equipment
JP6530212B2 (en) Autonomous mobile robot
KR20210014951A (en) Method and system for detecting aerial vehicle
JP7006856B1 (en) Wireless power transmission condition learning device, wireless power transmission condition determination device, wireless power transmission device and wireless power receiving device
CN110997488A (en) System and method for dynamically controlling parameters for processing sensor output data
WO2016069593A1 (en) Cooperative communication link mapping and classification
US20220368881A1 (en) Detection and ranging based on a single monoscopic frame

Legal Events

Date Code Title Description
A201 Request for examination