KR20210014951A - Method and system for detecting aerial vehicle - Google Patents
Method and system for detecting aerial vehicle Download PDFInfo
- Publication number
- KR20210014951A KR20210014951A KR1020190093068A KR20190093068A KR20210014951A KR 20210014951 A KR20210014951 A KR 20210014951A KR 1020190093068 A KR1020190093068 A KR 1020190093068A KR 20190093068 A KR20190093068 A KR 20190093068A KR 20210014951 A KR20210014951 A KR 20210014951A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- information
- radar
- detection device
- aerial vehicle
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 무인 비행체 탐지 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for detecting an unmanned aerial vehicle.
무인 비행체(무인 항공기, 무인 비행기, 무인기, 드론(drone) 등)는 조종사가 탑승하지 않은 항공기이다. 무인 비행체는 지상에서 원격조종(remote piloted), 사전 프로그램된 경로에 따라 자동 또는 반자동(semi-auto-piloted)형식으로 자율비행하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체를 말한다. 또한 무인 비행체는 지상통제장비(GCS: Ground Control Station/System) 및 통신장비(데이터 링크) 지원장비(Support Equipments) 등의 전체 시스템을 통칭할 수도 있다.Unmanned aerial vehicles (unmanned aerial vehicles, unmanned aerial vehicles, unmanned aerial vehicles, drones, etc.) are aircraft that are not on board by a pilot. An unmanned aerial vehicle is a vehicle that is remote piloted from the ground, operates autonomously in an automatic or semi-auto-piloted format according to a pre-programmed route, or performs a mission according to its own environmental judgment by mounting artificial intelligence. . In addition, the unmanned aerial vehicle may collectively refer to the entire system, such as Ground Control Station/System (GCS) and communication equipment (data link) and support equipments.
무인 비행체의 운용이 활발해짐에 따라 무인 비행체로 인한 사고 또는 범죄를 방지하기 위한 안티 드론(anti-drone) 기술(또는 무인 비행체 방어 기술)의 필요성도 증가하고 있다. 일반적으로 안티 드론 기술은 무인 비행체의 접근을 탐지하는 탐지 기술과, 무인 비행체의 비행을 무력화시키는 무력화 기술을 포함할 수 있다.As the operation of unmanned aerial vehicles becomes more active, the need for anti-drone technology (or unmanned aerial vehicle defense technology) to prevent accidents or crimes caused by unmanned aerial vehicles is also increasing. In general, anti-drone technology may include a detection technology that detects the approach of an unmanned aerial vehicle and a neutralization technology that neutralizes the flight of an unmanned aerial vehicle.
본 발명이 해결하려는 과제는 무인 비행체의 탐지 속도 및 품질을 높일 수 있는 무인 비행체 탐지 방법 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide an unmanned aerial vehicle detection method and system capable of increasing the detection speed and quality of an unmanned aerial vehicle.
본 발명의 일 실시 예에 따르면, 무인 비행체를 탐지하는 무인 비행체 탐지시스템이 제공된다. 무인 비행체 탐지 시스템은, 레이더 신호를 이용하여 표적을 탐지하고, 표적에 대한 표적 정보를 생성하는 레이더 장치, 다중 센서를 구비하고, 표적 정보를 이용하여 상기 다중 센서를 동작시켜 상기 표적을 추적하는 표적 탐지 장치 및 레이더 장치로부터 표적 정보를 수신하고, 미리 정해진 정책에 따라 표적 탐지 장치에 표적 정보를 전달하는 운용 장치를 포함하되, 다중 센서의 초기 초점 거리는, 레이더 장치에서 발사되는 하나의 레이더 빔이 지원하는 방위각 및 고각 방향의 빔 크기에 기반하여, 레이더 셀의 전체 ROI 범위를 계산하고, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 계산된 후보 초점 거리 중 전체 ROI 범위를 만족하는 초점 거리를 선택함으로써 결정되고, 레이더 장치는 미리 정해진 주기에 따라 표적 정보를 갱신하고, 표적 탐지 장치는 갱신된 표적 정보의 표적 크기, 표적 속도, 표적 거리를 반영하여 다중 센서의 초점 거리를 조정할 수 있다.According to an embodiment of the present invention, an unmanned aerial vehicle detection system for detecting an unmanned aerial vehicle is provided. The unmanned aerial vehicle detection system includes a radar device that detects a target using a radar signal and generates target information about the target, multiple sensors, and operates the multiple sensors using target information to track the target. It includes an operating device that receives target information from a detection device and a radar device, and transmits target information to the target detection device according to a predetermined policy, but the initial focal length of multiple sensors is supported by one radar beam emitted from the radar device. Based on the beam size in the azimuth and elevation directions, the entire ROI range of the radar cell is calculated, and a focal length that satisfies the entire ROI range is selected among candidate focal lengths calculated based on the minimum detectable Pixels on Target (PoT). The radar device may update the target information according to a predetermined period, and the target detection device may adjust the focal length of the multiple sensors by reflecting the target size, target speed, and target distance of the updated target information.
본 발명의 일 실시 예에 따르면, 비교적 오차가 크고 인식률이 낮은 레이더의 단점을 보완하기 위해 광학 센서, 깊이 정보 추출 센서 등의 센서들을 함께 운영함으로써, 보다 신속하게 무인 비행체를 탐지하고, 표적의 인식률을 높일 수 있다.According to an embodiment of the present invention, sensors such as an optical sensor and a depth information extraction sensor are operated together to compensate for the shortcomings of a radar with a relatively large error and a low recognition rate, thereby detecting an unmanned aerial vehicle more quickly and a target recognition rate. Can increase.
이에 따라 무인 비행체 인식 품질을 향상시킬 수 있고, 무인 비행체의 추적 성능을 향상시킬 수 있으며, 나아가 탐지된 무인 비행체의 불법성 여부를 보다 정확하게 판단할 수 있다.Accordingly, it is possible to improve the recognition quality of the unmanned aerial vehicle, improve the tracking performance of the unmanned aerial vehicle, and further accurately determine whether the detected unmanned aerial vehicle is illegal.
도 1은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 레이더 장치를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 운용 장치를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 표적 탐지 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.
도 9 내지 도 12는 본 발명의 일 실시 예에 따른 다중 센서에 대한 초점 거리를 설정하는 방법을 설명하기 위한 도면들이다.
도 13은 본 발명의 일 실시 예에 따른 컴퓨팅 시스템을 나타내는 도면이다.1 is a view for explaining an unmanned aerial vehicle detection system according to an embodiment of the present invention.
2 is a view for explaining a radar device according to an embodiment of the present invention.
3 is a view for explaining an operating device according to an embodiment of the present invention.
4 is a view for explaining a target detection device according to an embodiment of the present invention.
5 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
7 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
8 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
9 to 12 are diagrams for explaining a method of setting a focal length for multiple sensors according to an embodiment of the present invention.
13 is a diagram illustrating a computing system according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated.
이제 본 발명의 실시 예에 따른 무인 비행체 위치 추정 방법 및 시스템에 대하여 도면을 참조하여 상세하게 설명한다.Now, a method and system for estimating an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템을 설명하기 위한 도면이다.1 is a view for explaining an unmanned aerial vehicle detection system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 시스템(1)은 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)를 포함할 수 있다. 구체적인 구현 목적에 따라, 무인 비행체 탐지 시스템(1)은 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)를 전기적으로 연결하기 위한 네트워크(40)를 더 포함할 수 있다.Referring to FIG. 1, an unmanned aerial
레이더 장치(10)는 레이더 신호를 이용하여 표적을 탐지한다. 여기서 표적은 무인 비행체일 수 있으나, 무인 비행체로 식별 되기 전에 레이더 신호에 의해 탐지되는 임의의 물체도 의미할 수 있다. 레이더 장치(10)는 탐지한 표적에 대한 표적 정보를 생성하고, 표적 정보를 운용 장치(20) 또는 표적 탐지 장치(30)에 전달할 수 있다.The
본 발명의 몇몇의 실시 예에서, 표적 정보는 표적의 식별 정보(id), 방위각 정보, 고각 정보, 거리 정보, 이동 속도 정보, 이동 방향 정보 및 위험도 정보 중 적어도 하나를 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니고, 표적 정보가 포함하는 정보들의 종류와 개수는 구체적인 구현 목적에 따라 얼마든지 변경될 수 있다.In some embodiments of the present invention, the target information may include at least one of identification information (id) of a target, azimuth angle information, elevation angle information, distance information, movement speed information, movement direction information, and risk information, but the present invention The range of is not limited thereto, and the type and number of information included in the target information may be changed as much as possible according to a specific implementation purpose.
이와 같은 표적 정보는 미리 정해진 주기에 따라 갱신될 수 있다. 즉, 레이더 장치(10)는 미리 정해진 주기에 따라 표적을 반복 탐지하거나 새로 탐지하여 표적 정보를 갱신할 수 있다. 여기서 미리 정해진 주기는 일정 시간 간격을 갖는 주기를 의미할 수도 있고, 가변적인 시간 간격을 갖는 주기를 의미할 수도 있다. 레이더 장치(10)는 표적 정보를 갱신한 경우, 갱신된 표적 정보를 운용 장치(20) 또는 표적 탐지 장치(30)에 전달할 수 있다.Such target information may be updated according to a predetermined period. That is, the
운용 장치(20)는 표적에 관한 정보를 표적 탐지 장치(30)에 제공하고, 표적 탐지 장치(30)로부터 탐지 결과 데이터를 제공받아, 이를 처리할 수 있다. 구체적으로, 운용 장치(20)는 레이더 장치(10)로부터 표적 정보를 수신하고, 미리 정해진 정책에 따라 표적 정보를 표적 탐지 장치(30)에 전달할 수 있다. 예를 들어, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신한 경우, 운용 장치(20)는 미리 정해진 우선순위에 따라 복수의 표적 정보 중 하나를 선택하여 표적 탐지 장치(30)에 제공하거나, 복수의 표적 정보를 미리 정해진 우선순위에 따르는 순서에 따라 순차적으로 표적 탐지 장치(30)에 제공할 수 있다.The
본 발명의 몇몇의 실시 예에서, 위험도 정보는, 운용 장치(20)가 레이더 장치(10)로부터 수신한 표적 정보 중에서, 표적 탐지 장치(30)에 전달할 표적 정보를 선택하기 위해 사용될 수 있다. 다시 말해서, 운용 장치(20)는 레이더 장치(10)로부터 수신한 복수의 표적 정보 중에서, 위험도 정보에 따라(예를 들어 위험도가 높은 순서에 따라) 표적 탐지 장치(30)에 전달할 표적 정보를 선택할 수 있다.In some embodiments of the present invention, the risk information may be used to select target information to be transmitted to the
그리고 운용 장치(20)는 표적 탐지 장치(30)로부터 수신한 탐지 결과 데이터를 UTM(Unified Threat Management)과 같은 대응 체계에 전달할 수 있다. 탐지된 표적이 불법 무인 비행체로 판단된 경우, 대응 체계는 예컨대 해당 불법 무인 비행체의 비행을 무력화하기 위한 조치를 취할 수 있다.In addition, the
본 발명의 몇몇의 실시 예에서, 운용 장치(20)는 서버(server), 개인용 컴퓨터(personal computer), 노트북 컴퓨터, 태블릿 컴퓨터, 스마트폰을 비롯한 컴퓨팅 장치 또는 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 비롯한 프로그램 가능한 반도체 장치와 같은 하드웨어(hardware)로 구현될 수 있다. 뿐만 아니라 운용 장치(20)는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등의 프로세서를 통해 실행될 수 있는 프로그램 또는 어플리케이션과 같은 소프트웨어로 구현될 수도 있다. 나아가 운용 장치(30)는 이와 같은 하드웨어와 소프트웨어의 결합 형태로 구현될 수도 있다.In some embodiments of the present invention, the
표적 탐지 장치(30)는 표적을 탐지한다. 구체적으로 표적 탐지 장치(30)는 표적을 추적하거나, 표적은 인식하는 등의 기능을 수행할 수 있다. 특히, 표적 탐지 장치(30)는 다중 센서를 구비하며, 레이더 장치(10)와 다중 센서를 함께 이용하여 표적 탐지 성능을 향상시킬 수 있다. 구체적으로, 표적 탐지 장치(30)는, 레이더 장치(10)에 의해 생성된 표적 정보를 수신하고, 표적 정보를 이용하여 다중 센서를 동작시킴으로써 표적을 자동으로 추적하는 기능을 수행할 수 있다.The
표적 탐지 장치(30)는 운용 장치(20)를 통해 표적 정보를 제공받을 수도 있고, 운용 장치(20)를 거치지 않고 레이더 장치(10)로부터 표적 정보를 직접 제공받을 수도 있다. 운용 장치(20)를 통해 표적 정보를 제공받는 경우, 표적 탐지 장치(30)는 운용 장치(20)에서 미리 정해진 정책에 따라 선택된 표적 정보를 제공받을 수 있고, 레이더 장치(10)로부터 표적 정보를 직접 제공받는 경우, 표적 탐지 장치(30)는 레이더 장치(10)에서 제공받은 표적 정보 중에서 미리 정해진 우선순위에 따라 표적 정보를 선택(예컨대 위험도가 가장 높은 표적 정보를 선택)할 수 있다.The
레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30) 중 적어도 일부는 예컨대 데이터 전송 케이블을 이용하여 직접 데이터를 주고 받을 수 있다. 이와 다르게, 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30) 중 적어도 일부는 네트워크(400)를 통해 데이터를 주고 받을 수도 있다.At least some of the
본 발명의 몇몇의 실시 예에서, 네트워크(400)는 LAN(Local Area Network), WAN(Wide Area Network)를 비롯한 유선 네트워크, WiFi 네트워크, 블루투스(Bluetooth) 네트워크, 셀룰러(cellular) 네트워크 등을 비롯한 무선 네트워크, 또는 유선 네트워크와 무선 네트워크의 결합 형태를 포함할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다.In some embodiments of the present invention, the network 400 is a wireless network, including a local area network (LAN), a wired network including a wide area network (WAN), a WiFi network, a Bluetooth network, a cellular network, and the like. A network or a combination of a wired network and a wireless network may be included, but the scope of the present invention is not limited thereto.
도 2는 본 발명의 일 실시 예에 따른 레이더 장치를 설명하기 위한 도면이다.2 is a view for explaining a radar device according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 레이더 장치(10)는 레이더 모듈(11) 및 레이더 신호처리 모듈(13)을 포함할 수 있다.Referring to FIG. 2, the
레이더 모듈(11)은 레이더 빔(beam)을 표적에 발사하고, 표적을 탐지한 레이더 신호를 획득한다. 구체적으로 레이더 모듈(11)은 표적으로부터 반사되어 되돌아오는 레이더 신호를 수광하여 표적의 위치 또는 이동 속도 등을 탐지할 수 있다.The
레이더 신호처리 모듈(13)은 레이더 모듈(11)이 획득한 레이더 신호를 처리한다. 구체적으로 레이더 신호처리 모듈(13)은 레이더 모듈(11)이 수광한 레이더 신호로부터 도 1과 관련하여 앞서 설명한 표적 정보를 생성할 수 있다. 예를 들어, 레이더 신호처리 모듈(13)은 레이더 모듈(11)이 수광한 레이더 신호로부터 표적의 고각 정보, 거리 정보, 이동 속도 정보, 이동 방향 정보 등을 생성하고, 해당 표적에 대한 식별 정보 또는 위험도 정보를 추가적으로 생성할 수 있다. 이와 같이 생성된 표적 정보는 운용 장치(20) 또는 표적 탐지 장치(30)가 판독할 수 있는 데이터 구조로 구현될 수 있다. 도 1과 관련하여 언급한 바와 같이, 표적 정보는 미리 정해진 주기에 따라 갱신될 수 있다.The radar signal processing module 13 processes the radar signal acquired by the
도 3은 본 발명의 일 실시 예에 따른 운용 장치를 설명하기 위한 도면이다.3 is a view for explaining an operating device according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 운용 장치(20)는 운용 처리 모듈(21) 및 영상 처리 모듈(23)을 포함할 수 있다.Referring to FIG. 3, the operating
운용 처리 모듈(21)은 표적 탐지 장치(30)로부터 제공되는 데이터를 처리할수 있다. 예를 들어, 운용 처리 모듈(21)은 표적 탐지 장치(30)로부터 표적에 대한 탐지 결과 또는 인식 결과에 대한 데이터를 수신하고, 해당 데이터를 UTM과 같은 대응 체계에 전달하기 위해 데이터의 포맷을 변경하거나, 필요에 따라 데이터를 가공할 수 있다.The
영상 처리 모듈(23)은 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식한다. 구체적으로 영상 처리 모듈(23)은, 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치(weight)를 사용하고, 표적 탐지 장치(30)로부터 제공되는 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 방식으로 인식 성능을 향상시킬 수 있다.The
도 3에서는 영상 처리 모듈(23)이 운용 처리 모듈(21)에 포함된 것으로 도시되었으나, 본 발명의 범위가 이에 제한되는 것은 아니고, 표적 탐지 장치(30)에 영상 처리 모듈이 포함되도록 구현될 수도 있다. 이 경우, 표적 탐지 장치(30)에 구현된 영상 처리 모듈은 표적 탐지 장치(30)에서 생성한 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하고, 영상 처리 모듈을 통해 표적을 인식한 결과 데이터를 운용 장치(20)(예컨대 운용 처리 모듈(21))에 제공할 수 있다.In FIG. 3, the
도 4는 본 발명의 일 실시 예에 따른 표적 탐지 장치를 설명하기 위한 도면이다.4 is a view for explaining a target detection device according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 일 실시 예에 따른 표적 탐지 장치(30)는 다중 센서(31), 다중 센서 정보 획득 모듈(33), PT(pan/tilt) 구동 모듈(35) 및 다중 센서 정보 처리 모듈(37)을 포함할 수 있다.Referring to FIG. 4, a
다중 센서(31)는 레이더 장치(10)와 함께 연동하여 표적을 탐지하기 위해 사용되는 센서를 말한다. 본 발명의 몇몇의 실시 예에서, 다중 센서(31)는 광학 센서 및 깊이 정보 추출 센서를 포함할 수 있다. 광학 센서는 예를 들어 전자 광학(Electro-Optica, EO) 센서(또는 카메라), 적외선(Infrared) 센서(또는 카메라) 등을 포함할 수 있으며, 또한 원거리에 있는 표적에 대한 영상을 획득하기 위한 줌 렌즈(zoom lens)를 더 포함할 수 있다.The
한편, 깊이 정보 추출 센서는 라이다(Light Detection And Ranging, LiDAR) 센서를 포함할 수 있다. 라이더 센서를 이용하면, 레이저를 표적에 비춤으로써 표적까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등 표적에 대한 다양한 특성들을 감지할 수 있다.Meanwhile, the depth information extraction sensor may include a LiDAR (Light Detection And Ranging, LiDAR) sensor. Using the lidar sensor, it is possible to detect various characteristics of the target, such as distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc. by shining a laser at the target.
다중 센서 정보 획득 모듈(33)은 다중 센서(31)를 이용하여 표적을 탐지한 센싱 정보를 획득할 수 있다. 센싱 정보는 표적의 2D(2-dimensional) 위치 및 3D(3-dimensional) 위치, 이동 방향, 이동 속도, 표적까지의 거리 등의 정보를 포함할 수 있다.The multi-sensor information acquisition module 33 may acquire sensing information that detects a target using the multi-sensor 31. The sensing information may include information such as a 2-dimensional (2D) position and a 3-dimensional (3D) position of the target, a movement direction, a movement speed, and a distance to the target.
PT 구동 모듈(35)은 다중 센서(31)에 장착되어 다중 센서(31)의 위치를 제어할 수 있다. 구체적으로 PT 구동 모듈(35)은 다중 센서(31)가 팬(pan) 또는 틸트(tilt) 동작을 수행하도록 제어할 수 있다. 즉, PT 구동 모듈(35)은 다중 센서(31)를 팬 또는 틸트하여 원하는 방향의 영상을 획득할 수 있도록 한다.The
특히, 표적 탐지 장치(30)는 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 표적 정보를 팬 및 틸트 정보로 변환하여 PT 구동 모듈(35)을 제어할 수 있다. 이에 따라, 표적 탐지 장치(30)는 레이더 장치(10)에서 탐지된 표적을 추적할 수 있게 된다.In particular, the
한편, 표적 탐지 장치(30)는 위와 같이 다중 센서(31)의 위치를 제어한 후, 광학 센서의 줌 값 및 포커스 값을 조정할 수 있다. 즉, 다중 센서(31)는 위치 이동을 한 후, 미리 설정된 초기 초점 거리(focal length)에 기초하여 줌 값을 조정하거나, 표적 정보 중 거리 정보에 기초하여 포커스 값을 조정할 수 있다. 초기 초점 거리를 설정하는 실시 예에 대해서는 도 9 내지 도 12를 참조하여 후술하도록 한다.Meanwhile, the
이와 같이, 표적 탐지 장치(30)는, 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 표적 정보에 기초하여, 다중 센서(31)의 PTZF를 자동 설정할 수 있다. 여기서 PTZF는 곧 팬, 틸트, 줌, 포커스를 의미한다. In this way, the
다중 센서 정보 처리 모듈(37)은 다중 센서 정보 획득 모듈(33)이 획득한 센싱 정보를 처리할 수 있다. 그리고 다중 센서 정보 처리 모듈(37)은 다중 센서(31)를 통해 획득한 영상 정보 및 깊이 정보 중 적어도 하나를 포함하는 다중 센서 정보를 생성할 수 있다.The multi-sensor information processing module 37 may process sensing information acquired by the multi-sensor information acquisition module 33. In addition, the multi-sensor information processing module 37 may generate multi-sensor information including at least one of image information and depth information acquired through the multi-sensor 31.
한편, 다중 센서 정보 처리 모듈(37)은 다중 센서 정보를 부호화하고, 부호화된 다중 센서 정보를 운용 장치(20)에 전송할 수 있다. 그러면 운용 장치(20)는 부호화된 다중 센서 정보를 복호화하고, 복호화된 다중 센서 정보에 기초하여 관심 표적을 선택할 수 있다. 관심 표적은 레이더 장치(10)가 탐지한 표적 중 추적이 필요하다고 판단된 표적을 의미할 수 있다.Meanwhile, the multi-sensor information processing module 37 may encode multi-sensor information and transmit the encoded multi-sensor information to the operating
운용 장치(20)는, 선택한 관심 표적에 대한 관심 표적 정보를 생성하고, 관심 표적 정보를 표적 탐지 장치(30)에 전달할 수 있다. 본 발명의 몇몇의 실시 예에서, 관심 표적 정보는 관심 표적의 2D 좌표 정보(즉, 2D 영상에서의 표적의 x 좌표 및 y 좌표), 이동 속도 정보 및 크기 정보 중 적어도 하나를 포함할 수 있다.The operating
운용 장치(20)로부터 관심 표적 정보를 수신한 표적 탐지 장치(30)는 관심 표적 정보를 이용하여 관심 표적을 추적하거나, 관심 표적을 인식할 수 있다.The
본 발명의 몇몇의 실시 예에서, 도 3과 관련하여 앞서 설명한 바와 같이, 표적 탐지 장치(30)는, 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치(weight)를 사용하고, 관심 표적 탐지 결과 또는 관심 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 실행하는 영상 처리 모듈을 포함할 수 있다. 이와 같이, 표적 탐지 장치(30)는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 관심 표적을 인식한 후, 그 인식 결과 데이터를 운용 장치(20)에 제공할 수 있다.In some embodiments of the present invention, as described above with respect to FIG. 3, the
한편, 본 발명의 몇몇의 실시 예에서, 운용 장치(20)는, 미리 정해진 정책에 따라 관심 표적을 변경하고, 변경한 관심 표적에 대한 변경 관심 표적 정보를 생성하고, 표적 탐지 장치(30)에 변경 관심 표적 정보를 전달할 수 있다. 그리고 운용 장치(20)로부터 변경 관심 표적 정보를 수신한 표적 탐지 장치(30)는 변경 관심 표적 정보를 이용하여 추적 및 인식 대상을 변경할 수 있다.On the other hand, in some embodiments of the present invention, the operating
도 5는 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.5 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 레이더 장치(10)는 레이더 신호를 이용하여 표적을 탐지한 후, 탐지한 표적에 대한 표적 정보(초기 표적 정보)를 획득(S101)할 수 있다. 그리고 레이더 장치(10)는 초기 표적 정보를 운용 장치(20)에 전달(S103)할 수 있다.5, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the
운용 장치(20)는 레이더 장치(10)로부터 수신한 초기 표적 정보를 분배(S105)할 수 있다. 예를 들어, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신하고 표적 탐지 장치(30)가 복수인 경우, 운용 장치(20)는 복수의 초기 표적 정보 각각의 위험도 정보에 기초하여, 위험도가 가장 높은 초기 표적 정보부터 순서대로 복수의 표적 탐지 장치(30)에 전달(S107)할 수 있다. 다른 예로, 운용 장치(20)가 레이더 장치(10)로부터 복수의 표적 정보를 수신하고 표적 탐지 장치(30)가 1 개인 경우, 운용 장치(20)는 복수의 초기 표적 정보 각각의 위험도 정보에 기초하여, 위험도가 가장 높은 초기 표적 정보를 단일의 표적 탐지 장치(30)에 전달(S107)할 수 있다.The operating
한편, 레이더 장치(10)는 초기 표적 정보를 표적 탐지 장치(30)에 직접 전달(S109)할 수 있다. 즉, 표적 탐지 장치(30)는 레이더 장치(10)로부터 표적 정보를 직접 제공받을 수도 있다. 이 경우, 예를 들어, 표적 탐지 장치(30)는 레이더 장치(10)에서 제공받은 표적 정보 중에서, 예컨대 위험도가 가장 높은 초기 표적 정보를 선택할 수 있다.Meanwhile, the
다음으로, 표적 탐지 장치(30)는 다중 센서(31)의 PTZF를 자동 설정하고, 다중 센서(31)를 이용하여 표적을 탐지한 센싱 정보를 생성(S111)할 수 있다.Next, the
상기 단계(S111)는 레이더 장치(10) 또는 운용 장치(20)로부터 수신한 초기표적 정보를 팬 및 틸트 정보로 변환(S1111)하는 것과, 팬 및 틸트 정보를 이용하여 다중 센서(31)의 위치를 이동(S1113)하여, 원하는 방향의 영상을 획득할 수 있도록 하는 것을 포함할 수 있다.The step (S111) is to convert the initial target information received from the
또한, 상기 단계(S111)는 다중 센서(31)(예컨대 광학 센서)의 줌 값을 조정(S1115)하는 것과, 포커스 값을 조정(S1117)하는 것을 포함할 수 있다.In addition, the step S111 may include adjusting the zoom value of the multiple sensors 31 (eg, optical sensor) (S1115) and adjusting the focus value (S1117).
다음으로, 표적 탐지 장치(30)는 센싱 정보를 처리하여, 다중 센서(31)를 통해 획득한 영상 정보 및 깊이 정보 중 적어도 하나를 포함하는 다중 센서 정보를 생성(S113)할 수 있다.Next, the
이어서, 표적 탐지 장치(30)는 다중 센서 정보를 부호화(S115)하고, 부호화된 다중 센서 정보를 운용 장치(20)에 전송(S117)할 수 있다.Subsequently, the
도 6은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.6 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 운용 장치(20)는 부호화된 다중 센서 정보를 복호화하고, 복호화된 다중 센서 정보(예컨대 복호화된 영상 정보)를 재생(S119)할 수 있다.6, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the operating
다음으로, 운용 장치(20)는, 복호화된 다중 센서 정보에 기초하여 관심 표적을 선택하고, 선택한 관심 표적에 대한 관심 표적 정보를 생성(S121)할 수 있다. 그리고 운용 장치(20)는 관심 표적 정보를 표적 탐지 장치(30)에 전달(S123)할 수 있다.Next, the operating
관심 표적 정보를 수신한 표적 탐지 장치(30)는 관심 표적 정보를 이용하여 관심 표적을 추적(S125)할 수 있다. 특히, 표적 탐지 장치(30)는 관심 표적(즉, 무인 비행체)를 자동 추적할 수 있다.The
예를 들어, 표적 탐지 장치(30)는 관심 표적을 자동 추적하면서, 관심 표적의 위치 정보를 보정할 수 있다. 즉, 표적 탐지 장치(30)는 주기적으로 탐지를 수행하는 방식으로 에러 보정을 수행하여, 관심 표적의 위치 정보를 주기적으로 보정할 수 있다. 본 명세서에서 주기의 의미는 일정 시간 간격을 갖는 주기를 의미할 수도 있고, 가변적인 시간 간격을 갖는 주기를 의미할 수도 있다.For example, the
한편, 도 1과 관련하여 앞서 설명한 바와 같이, 레이더 장치(10)는 미리 정해진 주기에 따라 초기 표적 정보를 갱신할 수 있다. 표적 탐지 장치(30)는 갱신된 초기 표적 정보를 반영하여 다중 센서(31)의 줌 값을 조정할 수 있다.Meanwhile, as described above with respect to FIG. 1, the
구체적으로, 표적 탐지 장치(30)는 갱신된 표적의 식별 정보, 거리 정보, 이동 속도 정보 등을 비롯한 갱신된 초기 표적 정보와, 탐지를 통해 획득한 관심 표적의 크기를 고려하여 다중 센서(31)의 줌 값을 조정할 수 있다. 예를 들어, 속도 정보를 반영하는 경우, 표적의 속도가 빠른 경우 초점 거리를 낮추어, 다중 센서(31)로 센싱되는 영상에서 표적이 이동 가능한 범위를 넓힐 수 있다. 그러면 자동 추적 시 표적을 놓치지 않을 수 있다. 일반적으로 표적 거리, 표적 크기, 표적 속도와 초점 거리는 다음과 같은 관계를 가질 수 있다.Specifically, the
한편, 표적 탐지 장치(30)는 탐지된 표적 영역(Region Of Interest, ROI)을 대상으로, 주기적으로 포커스 값 조정을 수행할 수 있다. 이와 달리, 표적 탐지 장치(30)는 탐지된 표적 영역(ROI)을 대상으로, 표적 거리, 표적 크기 등의 변화량이 미리 정해진 수준 또는 범위를 벗어나는 경우에 포커스 값 조정을 수행할 수 있다.Meanwhile, the
한편, 표적 탐지 장치(30)는, 자동 추적을 수행하는 동안 표적을 놓치지 않도록 하기 위해, 표적의 이동에 따라 팬 및 틸트 값을 지속적으로 갱신하여 PT 구동 모듈(35)을 제어할 수 있다. 예를 들어, 표적 탐지 장치(30)는, 자동 추적을 수행하는 동안 표적이, 다중 센서(31)로 센싱되는 영상의 중심 또는 중심을 포함하는 미리 정해진 영역에 위치하도록 팬 및 틸트 값을 지속적으로 갱신하여 PT 구동 모듈(35)을 제어할 수 있다.Meanwhile, the
표적 탐지 장치(30)는 관심 표적에 대한 추적 결과를 운용 장치(20)에 전달(S127)할 수 있다. 그러면 운용 장치(20)는, 필요에 따라 해당 추적 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.The
도 7은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.7 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
도 7을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 운용 장치(20)는, 예컨대 표적 탐지 장치(30)가 관심 표적에 대한 자동 추적을 수행(S125)하는 중, 미리 정해진 정책에 따라 관심 표적을 변경하고, 변경한 관심 표적에 대한 변경 관심 표적 정보를 생성(S131)할 수 있다. 예를 들어, 운용 장치(20)는 현재 관심 표적보다 더 위험도가 높은 표적을 인지한 경우, 해당 표적을 관심 표적으로 변경하고 이에 대한 관심 표적 정보를 생성할 수 있다.Referring to Figure 7, in the unmanned aerial vehicle detection method according to an embodiment of the present invention, the operating
이어서 운용 장치(20)는 변경된 관심 표적 정보를 표적 탐지 장치(30)에 전달(S133)할 수 있다. 그러면 표적 탐지 장치(30)는 변경된 관심 표적 정보(즉, 변경 관심 표적 정보)를 이용하여 자동 추적 대상을 변경하고, 변경된 관심 표적에 대한 자동 추적을 수행(S135)할 수 있다.Subsequently, the operating
한편, 운용 장치(20)는 레이더 장치(10)로부터 탐지된 신규 표적에 대한 신규 표적 정보를 수신(S137)하고, 신규 표적 정보에 기초하여 신규 표적을 관심 표적으로 변경하고 이에 대한 관심 표적 정보를 생성(S139)할 수 있다.On the other hand, the operating
이어서 운용 장치(20)는 변경된 관심 표적 정보를 표적 탐지 장치(30)에 전달(S141)할 수 있다. 그러면 표적 탐지 장치(30)는 변경된 관심 표적 정보를 이용하여 자동 추적을 수행(S143)할 수 있다.Subsequently, the operating
다음으로, 표적 탐지 장치(30)는 변경된 관심 표적에 대한 추적 결과를 운용 장치(20)에 전달(S127)할 수 있다. 그러면 운용 장치(20)는, 필요에 따라 해당 추적 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.Next, the
도 8은 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법을 설명하기 위한 도면이다.8 is a diagram illustrating a method of detecting an unmanned aerial vehicle according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체 탐지 방법에서, 표적 탐지 장치(30)는, 관심 표적에 대한 자동 추적을 수행(S125)한 후, 관심 표적을 인식할 수 있다. 관심 표적의 크기가 인식이 가능한 크기보다 작은 경우에, 표적 탐지 장치(30)는 관심 표적의 이동 속도를 고려하여 관심 표적의 추적을 놓치지 않는 선에서 다중 센서(30)에 대한 줌 동작을 수행하거나, 초점 거리가 커지도록 조정할 수 있다.Referring to FIG. 8, in the method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, the
표적 탐지 장치(30)는 관심 표적에 대한 인식 결과(즉, 표적 인식 결과)를 운용 장치(20)에 전달(S147)할 수 있다.The
운용 장치(20)는 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식하기 위한 영상 처리를 수행(S149)할 수 있다. 구체적으로, 운용 장치(20)는 무인 비행체에 관한 사전 데이터가 저장된 데이터베이스를 통해 기 학습된 가중치를 사용하고, 표적 탐지 장치(30)로부터 제공되는 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 방식으로 인식 성능을 향상시킬 수 있다.The operating
한편, 표적 탐지 장치(30) 역시 뉴럴 네트워크 기반 머신 러닝 알고리즘을 이용하여 표적을 인식하기 위한 영상 처리를 수행(S151)할 수 있다. 구체적으로, 표적 탐지 장치(30)는, 표적 탐지 장치(30)에서 생성한 표적 탐지 결과 또는 표적 인식 결과를 새로운 데이터 셋으로 추가하여 재학습하는 과정을 수행하고, 영상 처리 모듈을 통해 표적을 인식한 결과 데이터를 운용 장치(20)에 제공(S153)할 수 있다.Meanwhile, the
그러면 운용 장치(20)는, 필요에 따라 해당 인식 결과 데이터를 가공한 후, 이를 UTM과 같은 대응 체계에 전달(S129)할 수 있다.Then, the operating
도 9 내지 도 12는 본 발명의 일 실시 예에 따른 다중 센서에 대한 초점 거리를 설정하는 방법을 설명하기 위한 도면들이다.9 to 12 are diagrams for explaining a method of setting a focal length for multiple sensors according to an embodiment of the present invention.
도 4를 참조하여 앞서 설명한 바와 같이, 표적 탐지 장치(30)는 다중 센서(31)의 위치 이동을 한 후, 초기 초점 거리에 기초하여 다중 센서(31)의 광학 센서에 대한 줌 값을 조정할 수 있다. 이를 위해, 레이더 장치(10)로부터 획득한 3D 표적의 정확도 또는 해상도를 고려할 수 있다. 이와 같은 해상도는 레이더 빔(beam)의 해상도에 따라 정의된다. 일반적으로 광학 센서(예컨대 전자 광학(Electro-Optica, EO) 센서, 적외선(Infrared) 센서 등)의 해상도보다 레이더 장치(10)의 해상도가 현저히 낮다. 그러므로 표적의 탐지를 위해 레이더 빔에 대한 배열 및 규격에 대한 분석이 필요할 수 있다.As described above with reference to FIG. 4, after moving the position of the
도 9를 참조하면, 레이더 빔은 그 특성상 직각 형태(특정 거리에서 직사각형)로 모양이 이루어지지 않으며, 방사 지점을 중심으로 거리가 멀어짐에 따라 타원형의 형태로 점점 더 크기가 커지는 모양으로 형성된다. 다중 센서(31)의 초기 초점 거리는 다음과 같은 방식으로 설정할 수 있다.Referring to FIG. 9, the radar beam is not formed in a right-angled shape (a rectangle at a specific distance) due to its characteristics, and is formed in an elliptical shape and gradually increasing in size as the distance from the radiation point increases. The initial focal length of the multi-sensor 31 may be set in the following manner.
먼저 레이더 장치(10)로부터 획득한 3D 표적의 정확도를 반영하기 위해, 하나의 레이더 빔이 지원하는 방위각과 고각 방향의 빔 크기에 기반하여, 최대 탐지 거리에서 커버 가능한 레이더 빔 영역의 크기를 계산한다. 예를 들어, 방위각 방향으로 1.5°, 고각 방향으로 5.0°에 해당하는 직사각형을 하나의 레이더 빔의 크기로 가정하면, 레이더 빔 간의 중첩을 고려하지 않을 경우 방위각과 고각 방향의 커버리지(coverage)는 표 1의 (a)(b)와 같다(단위: m).First, in order to reflect the accuracy of the 3D target acquired from the
이어서 도 10을 참조하면, 무인 비행체의 이동 방향을 고려하여 탐지 윈도우(W)를 설정하기 위해, 포함할 레이더 셀(CELL)의 개수를 결정하고, 해당 레이더 셀(CELL)의 전체 ROI 범위를 계산한다. 예를 들어, 방위각 방향으로 1.5°, 고각 방향으로 5.0°인 레이더 빔에 대해 무인 비행체의 이동 방향 정보를 이용하는 경우, 임의 지점의 무인비행체는 어떠한 방향으로 움직이더라도 동안은 4 개의 레이더 셀(CELL) 범위 내에 존재하게 된다. 는 표적에 대한 탐지 시간을 고려하여 결정이 되지만, 3 km 거리에서 레이더 셀(CELL)의 공간 넓이(dimension)가 방위각 방향으로 약 79 m 이고 고각 방향으로 약 262 m 인 점을 고려하면, 4 개의 레이더 셀(CELL)의 범위는 표 1의 (c)(d)와 같이 약 157 m x 524 m 를 커버해야 한다.Next, referring to FIG. 10, in order to set the detection window W in consideration of the moving direction of the unmanned aerial vehicle, the number of radar cells (CELL) to be included is determined, and the total ROI range of the radar cell (CELL) is calculated. do. For example, when using information on the direction of movement of an unmanned aerial vehicle for a radar beam of 1.5° in the azimuth direction and 5.0° in the elevation direction, the unmanned aerial vehicle at any point may move in any direction. During the period, it is within the range of four radar cells (CELL). Is determined in consideration of the detection time for the target, but considering that the spatial dimension of the radar cell at a distance of 3 km is about 79 m in the azimuth direction and about 262 m in the elevation direction, four The range of the radar cell (CELL) should cover about 157 mx 524 m as shown in Table 1 (c) (d).
이어서 도 11 및 도 12를 참조하면, 4 : 3의 종횡비가 일반적인 카메라 센서를 사용하는 산업용 카메라를 기준으로 할 때, 종횡을 바꾸어 수직 방향으로 세워서 활용할 경우, 고각 방향으로 2 개 셀의 커버리지를 갖는 카메라 센서는 방위각 방향으로 약 4개의 셀 커버리지를 가지게 된다(4 x 2). 따라서 실제적인 탐지 윈도우(W)는 도 11과 같은 형태를 나타내게 된다. 특히, 레이다 셀(CELL) 내에서 무인비행장치의 정확한 위치를 알 수 없으므로, 탐지 윈도우(W) 설정시 도 12와 같은 형태로 영역을 설정하여 영상을 획득하고 탐지 알고리즘을 수행하는 것이 효율적일 수 있다.Next, referring to FIGS. 11 and 12, when the aspect ratio of 4:3 is based on an industrial camera using a general camera sensor, when the aspect ratio is changed and used vertically, it has a coverage of two cells in the elevation direction. The camera sensor has about 4 cell coverage in the azimuth direction (4 x 2). Accordingly, the actual detection window W has a shape as shown in FIG. 11. In particular, since it is not possible to know the exact location of the unmanned aerial vehicle within the radar cell (CELL), it may be efficient to acquire an image and perform a detection algorithm by setting an area as shown in FIG. 12 when setting the detection window (W). .
이후, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 후보가 될 수 있는 초점 거리들을 계산하고, 이 중 앞서 계산된 커버리지를 만족하는 초점 거리를 초기 초점 거리로 최종 선택할 수 있다. 예를 들어, 앞서 결정한 방위각 방향으로 4 배, 고각 방향으로 2 배의 ROI 확보를 위해서는 255 mm의 초점 거리가 필요할 수 있다. 아래의 표 2는 3 km 기준의 초점 거리에 따른 PoT 크기와 커버리지를 나타낸 것이다.Thereafter, focal lengths that can be candidates may be calculated based on the minimum detectable Pixels on Target (PoT), and a focal length that satisfies the previously calculated coverage may be finally selected as the initial focal length. For example, a focal length of 255 mm may be required to secure an ROI of 4 times in the azimuth direction determined previously and 2 times in the elevation direction. Table 2 below shows the PoT size and coverage according to the focal length based on 3 km.
이제까지 설명한 본 발명의 실시 예들에 따르면, 레이더와 광학 센서, 깊이 정보 추출 센서 등의 여러 센서를 함께 운용하여 무인 비행체의 탐지 속도 및 품질을 높일 수 있다. 이에 따라 무인 비행체 인식 품질을 향상시킬 수 있고, 무인 비행체의 추적 성능을 향상시킬 수 있으며, 나아가 탐지된 무인 비행체의 불법성 여부를 보다 정확하게 판단할 수 있다.According to the embodiments of the present invention described so far, it is possible to increase the detection speed and quality of an unmanned aerial vehicle by operating together several sensors such as a radar, an optical sensor, and a depth information extraction sensor. Accordingly, it is possible to improve the recognition quality of the unmanned aerial vehicle, improve the tracking performance of the unmanned aerial vehicle, and further accurately determine whether the detected unmanned aerial vehicle is illegal.
도 13은 본 발명의 일 실시 예에 따른 컴퓨팅 시스템을 나타내는 도면이다.13 is a diagram illustrating a computing system according to an embodiment of the present invention.
도 13을 참조하면, 본 발명의 다양한 실시 예에 따른 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)는 컴퓨팅 시스템(4000)으로 구현될 수 있다.Referring to FIG. 13, the
컴퓨터 시스템(4000)은 버스(420)를 통해 통신하는 프로세서(410), 메모리(430), 사용자 인터페이스 입력 장치(440), 사용자 인터페이스 출력 장치(450) 및 저장 장치(460) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(4000)은 또한 네트워크에 전기적으로 접속되는 네트워크 인터페이스(470)를 포함할 수 있다. 네트워크 인터페이스(470)는 네트워크를 통해 다른 개체와 신호를 송신 또는 수신할 수 있다.The
프로세서(410)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(430) 또는 저장 장치(460)에 저장된 명령을 실행하는 임의의 반도체 장치일 수 있다. 프로세서(410)는 도 1 내지 도 12에서 설명한 기능 및 방법들을 구현하도록 구성될 수 있다. The
메모리(430) 및 저장 장치(460)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory)(531) 및 RAM(random access memory)(432)를 포함할 수 있다. 본 발명의 실시 예에서 메모리(430)는 프로세서(410)의 내부 또는 외부에 위치할 수 있고, 메모리(430)는 이미 알려진 다양한 수단을 통해 프로세서(410)와 연결될 수 있다.The
또한, 본 발명의 다양한 실시 예에 따른 레이더 장치(10), 운용 장치(20) 및 표적 탐지 장치(30)의 기능 중 적어도 일부는 컴퓨팅 시스템(4000)에서 실행되는 프로그램 또는 소프트웨어로 구현될 수 있고, 프로그램 또는 소프트웨어는 컴퓨터로 판독 가능한 매체에 저장될 수 있다.In addition, at least some of the functions of the
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and ordinary knowledge in the technical field to which the present invention belongs, using the basic concept of the present invention defined in the following claims. Various modifications and improved forms of those who have are also within the scope of the present invention.
Claims (1)
다중 센서를 구비하고, 상기 표적 정보를 이용하여 상기 다중 센서를 동작시켜 상기 표적을 추적하는 표적 탐지 장치; 및
상기 레이더 장치로부터 상기 표적 정보를 수신하고, 미리 정해진 정책에 따라 상기 표적 탐지 장치에 상기 표적 정보를 전달하는 운용 장치
를 포함하되,
상기 다중 센서의 초기 초점 거리는, 상기 레이더 장치에서 발사되는 하나의 레이더 빔이 지원하는 방위각 및 고각 방향의 빔 크기에 기반하여, 레이더 셀의 전체 ROI 범위를 계산하고, 탐지 가능한 최소 PoT(Pixels on Target)를 기준으로 계산된 후보 초점 거리 중 상기 전체 ROI 범위를 만족하는 초점 거리를 선택함으로써 결정되고,
상기 레이더 장치는 미리 정해진 주기에 따라 상기 표적 정보를 갱신하고, 상기 표적 탐지 장치는 상기 갱신된 표적 정보의 표적 크기, 표적 속도, 표적 거리를 반영하여 상기 다중 센서의 초점 거리를 조정하는 무인 비행체 탐지 시스템.A radar device for detecting a target using a radar signal and generating target information for the target;
A target detection device having multiple sensors and tracking the target by operating the multiple sensors using the target information; And
An operating device that receives the target information from the radar device and delivers the target information to the target detection device according to a predetermined policy
Including,
The initial focal length of the multi-sensor is based on the beam size in the azimuth and elevation directions supported by one radar beam emitted from the radar device, and calculates the entire ROI range of the radar cell, and detects the minimum possible Pixels on Target It is determined by selecting a focal length that satisfies the entire ROI range from among the candidate focal lengths calculated based on ),
The radar device updates the target information according to a predetermined period, and the target detection device adjusts the focal length of the multiple sensors by reflecting the target size, target speed, and target distance of the updated target information. system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190093068A KR20210014951A (en) | 2019-07-31 | 2019-07-31 | Method and system for detecting aerial vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190093068A KR20210014951A (en) | 2019-07-31 | 2019-07-31 | Method and system for detecting aerial vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210014951A true KR20210014951A (en) | 2021-02-10 |
Family
ID=74561400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190093068A KR20210014951A (en) | 2019-07-31 | 2019-07-31 | Method and system for detecting aerial vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210014951A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102559135B1 (en) * | 2023-02-23 | 2023-07-25 | 주식회사 유투에스알 | AI convergence drone detection system |
-
2019
- 2019-07-31 KR KR1020190093068A patent/KR20210014951A/en active Search and Examination
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102559135B1 (en) * | 2023-02-23 | 2023-07-25 | 주식회사 유투에스알 | AI convergence drone detection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109358650B (en) | Routing inspection path planning method and device, unmanned aerial vehicle and computer readable storage medium | |
US20180032042A1 (en) | System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data | |
WO2018095278A1 (en) | Aircraft information acquisition method, apparatus and device | |
US11353891B2 (en) | Target tracking method and apparatus | |
US7561098B2 (en) | System and method for estimating airborne radar antenna pointing errors | |
US20170102699A1 (en) | Drone control through imagery | |
KR101948569B1 (en) | Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same | |
CN111201448B (en) | Method and device for generating an inverted sensor model and method for identifying obstacles | |
US10598791B2 (en) | Object detection based on Lidar intensity | |
KR20210152036A (en) | The laser scan system, the laser scan method, and the movement laser scan system and program | |
CN104932524A (en) | Unmanned aerial vehicle and method for omnidirectional obstacle avoidance | |
CN109443345B (en) | Positioning method and system for monitoring navigation | |
CN112106111A (en) | Calibration method, calibration equipment, movable platform and storage medium | |
CN108169729A (en) | The method of adjustment of the visual field of laser radar, medium, laser radar system | |
US20220253057A1 (en) | Image processing-based laser emission and dynamic calibration apparatus and method, device and medium | |
US20190147749A1 (en) | System and Method for Mission Planning, Flight Automation, and Capturing of High-Resolution Images by Unmanned Aircraft | |
JP2019053501A (en) | Flying device, management device, flight management method and program | |
JP7258732B2 (en) | Apparatus, program and method for identifying terminal based on correspondence between communication type and target type | |
CN113959444A (en) | Navigation method, device and medium for unmanned equipment and unmanned equipment | |
JP6530212B2 (en) | Autonomous mobile robot | |
KR20210014951A (en) | Method and system for detecting aerial vehicle | |
JP7006856B1 (en) | Wireless power transmission condition learning device, wireless power transmission condition determination device, wireless power transmission device and wireless power receiving device | |
CN110997488A (en) | System and method for dynamically controlling parameters for processing sensor output data | |
WO2016069593A1 (en) | Cooperative communication link mapping and classification | |
US20220368881A1 (en) | Detection and ranging based on a single monoscopic frame |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |