KR102159197B1 - Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same - Google Patents

Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same Download PDF

Info

Publication number
KR102159197B1
KR102159197B1 KR1020200054846A KR20200054846A KR102159197B1 KR 102159197 B1 KR102159197 B1 KR 102159197B1 KR 1020200054846 A KR1020200054846 A KR 1020200054846A KR 20200054846 A KR20200054846 A KR 20200054846A KR 102159197 B1 KR102159197 B1 KR 102159197B1
Authority
KR
South Korea
Prior art keywords
radar
processing unit
control signal
remote processing
small uavs
Prior art date
Application number
KR1020200054846A
Other languages
Korean (ko)
Inventor
전영훈
신종환
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020200054846A priority Critical patent/KR102159197B1/en
Application granted granted Critical
Publication of KR102159197B1 publication Critical patent/KR102159197B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/522Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
    • G01S13/524Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves based upon the phase or frequency shift resulting from movement of objects, with reference to the transmitted signals, e.g. coherent MTi
    • G01S13/5244Adaptive clutter cancellation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • B64C2201/12
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Disclosed are a radar sensor payload for a small unmanned aerial vehicle, a remote processing unit, a detection system, and a detection method of a target using the same, capable of realizing a distributed cooperative radar sensor by multi-operation of a plurality of small unmanned aerial vehicles. According to one embodiment of the present invention, the detection system comprises: a radar reception data acquisition unit which includes a plurality of small unmanned aerial vehicles and acquires radar reception data for a target through the plurality of small unmanned aerial vehicles; and a remote processing unit which is connected to the plurality of small unmanned aerial vehicles through a network, generates a control signal for controlling at least one of a formation and a beam waveform for the plurality of small unmanned aerial vehicles to transmit the control signal to the plurality of small unmanned aerial vehicles, receives the radar reception data from the plurality of small unmanned aerial vehicles, and generates an image for the target based on the radar reception data.

Description

소형 무인기용 레이더 센서 탑재체, 원격 처리부, 탐지 시스템 및 이를 이용한 대상체의 탐지 방법{RADAR SENSOR PAYLOAD FOR SMALL UAV, REMOTE PROCESSING DEVICE, DETECTION SYSTEM AND METHOD OF DETECTING TARGET USING THE SAME}Radar sensor payload for small unmanned aerial vehicles, remote processing unit, detection system, and object detection method using the same {RADAR SENSOR PAYLOAD FOR SMALL UAV, REMOTE PROCESSING DEVICE, DETECTION SYSTEM AND METHOD OF DETECTING TARGET USING THE SAME}

본 발명은 소형 무인기용 레이더 센서 탑재체, 원격 처리부, 탐지 시스템 및 이를 이용한 대상체의 탐지 방법에 관한 것이다.The present invention relates to a radar sensor loading body for a small unmanned aerial vehicle, a remote processing unit, a detection system, and a method of detecting an object using the same.

일반적으로, 드론은 무선전파의 유도에 의해서 비행 및 조종 가능한 비행기나 헬리콥터 형태의 무인항공기(UAV: unmanned aerial vehicle/uninhabited aerial vehicle)의 총칭이다. 드론은 군사용으로서, 연습사격의 표적으로 사용되거나 정찰, 감시와 대잠공격 등을 위해 사용되고 있다.In general, a drone is a generic term for an unmanned aerial vehicle (UAV) or an uninhabited aerial vehicle (UAV) that can fly and manipulate by induction of radio waves. Drones are for military use and are used as targets for practice shooting or for reconnaissance, surveillance and anti-submarine attacks.

군사용 드론은 대형화 및 고성능화로 유인기의 임무영역을 일부 대체하고 있으며, 현재 각국에서는 네트워크 중심전에 입각한 유인·무인 전투기의 동시작전이 가능한 전투체계를 연구 중에 있다. 드론은 네트워크 기반 실시간 빅 데이터 수집, 활용에 따른 초연결성, 인공지능 기반의 자율비행, 운영관리로 미래형 드론 등장 등의 초 기능성, 및 다양한 수요에 대응하는 센서, 임무장비 등의 융·복합 특징을 가지고 있다.Military drones have partially replaced the mission area of manned aircraft by increasing their size and performance, and each country is currently researching a combat system capable of simultaneous operation of manned and unmanned fighters based on network-centric warfare. Drones are equipped with network-based real-time big data collection, hyper-connectivity for use, artificial intelligence-based autonomous flight, super-functionality such as the emergence of future drones through operational management, and convergence and complex features such as sensors and mission equipment that respond to various demands. Have.

대상체(예를 들어, 사람, 건물, 비행체 등)를 탐지하기 위해, 카메라, 열화상 카메라, 적외선 카메라 등과 같은 장비가 드론에 설치된다. 또한, 지뢰와 같은 대상체를 탐지하기 위해 지뢰 탐지 장비가 드론에 장착된다. 이와 같이, 탐지하고자 하는 대상체의 대상에 따라 이에 대응하는 장비가 드론에 장착될 수 있다.In order to detect an object (eg, a person, a building, an aircraft, etc.), equipment such as a camera, a thermal imager, an infrared camera, etc. is installed on the drone. In addition, mine detection equipment is mounted on the drone to detect objects such as land mines. In this way, according to the target of the object to be detected, a corresponding device may be mounted on the drone.

그러나, 탐지하고자 하는 대상체(표적)의 대상에 따라 이에 대응하는 장비를 드론에 장착해야 하므로, 대상체의 대상이 변경될 때마다 드론에 장착되는 장비가 변경되어야 하는 불편함이 있다. 또한, 대상체를 탐지하기 위해, 1대 또는 소규모의 드론을 이용하기 때문에 운용 방법에 제약이 많으며 이로 인해 활용성 및 범용성이 떨어지는 문제점이 있다. 더욱이, 대상체를 탐지하기 위해 카메라와 같은 영상 장비들을 사용하기 때문에 시각적으로 대상체를 확인할 수 있는 한계가 있을 뿐만 아니라, 비 가시영역에서도 탐지 및 영상획득이 가능한 레이더 센서의 경우 소형 드론에 탑재하는데 한계가 있는 문제점이 있다.However, according to the target of the object (target) to be detected, equipment corresponding thereto must be mounted on the drone, so there is an inconvenience in that the equipment mounted on the drone must be changed whenever the target of the object is changed. In addition, since one or a small-scale drone is used to detect an object, there are many restrictions on the operation method, and thus, there is a problem in that the utility and versatility are poor. Moreover, since imaging equipment such as a camera is used to detect an object, there is a limit to visually confirming the object, and in the case of a radar sensor that can detect and acquire images even in a non-visible area, there is a limit to mounting on a small drone. There is a problem.

본 발명은 복수의 소형 무인기(예를 들어, 드론 등) 각각에 레이더 센서를 탑재하고, 복수의 소형 무인기의 멀티 운용에 의한 분산 협동형 레이더 센서를 구현할 수 있는 소형 무인기용 레이더 센서 탑재체, 원격 처리부, 탐지 시스템 및 이를 이용한 대상체의 탐지 방법을 제공할 수 있다.The present invention is equipped with a radar sensor for each of a plurality of small unmanned aerial vehicles (e.g., drones, etc.), and a radar sensor loading body for a small unmanned aerial vehicle capable of implementing a distributed cooperative radar sensor by multi-operation of a plurality of small unmanned aerial vehicles, a remote processing unit , A detection system and a method for detecting an object using the same can be provided.

또한, 본 발명은 복수의 소형 무인기 각각에 탑재된 레이더 센서를 이용하여 대상체에 대한 레이더 데이터를 획득하고 획득된 레이더 데이터를 이용하여 대상체를 탐지하는 소형 무인기용 레이더 센서 탑재체, 원격 처리부, 탐지 시스템 및 이를 이용한 대상체의 탐지 방법을 제공할 수 있다.In addition, the present invention acquires radar data for an object using radar sensors mounted on each of a plurality of small unmanned aerial vehicles, and uses the obtained radar data to detect an object, a radar sensor payload for a small unmanned aerial vehicle, a remote processing unit, a detection system, and A method of detecting an object using this can be provided.

본 발명의 일 실시예에 따르면 탐지 시스템이 개시될 수 있다. 일 실시예에 따른 탐지 시스템은, 복수의 소형 무인기를 포함하며 상기 복수의 무인기를 통해 대상체에 대한 레이더 수신 데이터를 획득하는 레이더 수신 데이터 획득부; 및 네트워크를 통해 상기 복수의 소형 무인기에 연결되고, 상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하여 상기 복수의 소형 무인기로 송신하고, 상기 복수의 소형 무인기로부터 상기 레이더 수신 데이터를 수신하고 상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 원격 처리부를 포함할 수 있다.According to an embodiment of the present invention, a detection system may be disclosed. A detection system according to an embodiment includes: a radar reception data acquisition unit including a plurality of small UAVs and acquiring radar reception data for an object through the plurality of UAVs; And generating a control signal for controlling at least one of a large or beam waveform for the plurality of small UAVs connected to the plurality of small UAVs through a network, and transmitting them to the plurality of small UAVs, and the plurality of small UAVs. And a remote processing unit configured to receive the radar reception data from and to generate an image of the object based on the radar reception data.

일 실시예에 있어서, 상기 복수의 소형 무인기는 복수의 드론을 포함하고, 상기 복수의 드론 각각은 빔을 상기 대상체에 방사하고 상기 대상체로부터 반사되는 빔을 수신하여 상기 대상체에 대한 레이더 수신 데이터를 획득할 수 있다.In an embodiment, the plurality of small UAVs includes a plurality of drones, and each of the plurality of drones radiates a beam to the object and receives a beam reflected from the object to obtain radar reception data for the object. can do.

일 실시예에 있어서, 상기 레이더 수신 데이터 획득부는 복수의 드론을 멀티 운용하여 구현되는 분산 협동형 레이더 센서를 포함하고, 분산 협동형 레이더 센서에서 대상체에 송신하고 대상체로부터 반사되는 레이더 신호는 분산 협동형 레이더 센서에 포함되고 있는 모든 레이더 센서에서 수신할 수 있다.In one embodiment, the radar reception data acquisition unit includes a distributed cooperative radar sensor implemented by multi-operating a plurality of drones, and a radar signal transmitted from the distributed cooperative radar sensor to an object and reflected from the object is distributed cooperative type. It can be received by all radar sensors included in the radar sensor.

일 실시예에 있어서, 상기 복수의 드론은 상기 제어 신호에 기초하여 상기 대형에 대응하는 위치를 결정할 수 있다.In an embodiment, the plurality of drones may determine a location corresponding to the formation based on the control signal.

일 실시예에 있어서, 상기 복수의 드론은 상기 제어 신호에 기초하여 상기 빔 파형에 대응하는 상기 빔을 생성할 수 있다.In an embodiment, the plurality of drones may generate the beams corresponding to the beam waveforms based on the control signal.

일 실시예에 있어서, 상기 복수의 드론은 서로 간에 통신을 수행하여 상기 복수의 드론 각각의 위치 및 특성에 따라 상기 빔 파형을 가변시킬 수 있다.In an embodiment, the plurality of drones may communicate with each other to change the beam waveform according to the position and characteristic of each of the plurality of drones.

일 실시예에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기를 상기 대상체가 위치하는 장소로 이동시키기 위한 신호를 더 포함할 수 있다.In an embodiment, the control signal may further include a signal for moving the plurality of small UAVs to a location where the object is located.

일 실시예에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기에 대해 상기 대형 또는 상기 빔 파형 중 적어도 하나를 변경시키기 위한 신호를 더 포함할 수 있다.In an embodiment, the control signal may further include a signal for changing at least one of the large size or the beam waveform for the plurality of small UAVs.

일 실시예에 있어서, 상기 원격 처리부는 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하고, 상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 영상을 생성할 수 있다.In an embodiment, the remote processor may process the radar received data to identify the object and the clutter, and classify the object and the clutter to generate an image of the object.

일 실시예에 있어서, 상기 원격 처리부는 상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용할 수 있다.In an embodiment, the remote processing unit may apply the radar received data to an artificial intelligence algorithm for classifying the object and the clutter.

일 실시예에 있어서, 상기 탐지 시스템은, 상기 네트워크를 통해 상기 원격 처리부에 연결되고, 상기 원격 처리부로부터 제공되는 상기 레이더 수신 데이터를 인공지능 학습에 이용하여 상기 인공지능 알고리즘을 갱신하고, 상기 갱신된 인공지능 알고리즘을 상기 원격 처리부에 제공하는 인공지능 서버를 더 포함할 수 있다.In one embodiment, the detection system is connected to the remote processing unit through the network, and updates the artificial intelligence algorithm by using the radar received data provided from the remote processing unit for artificial intelligence learning, and the updated It may further include an artificial intelligence server that provides the artificial intelligence algorithm to the remote processing unit.

본 발명의 일 실시예에 따르면, 네트워크를 통해 복수의 소형 무인기에 연결되는 원격 처리부가 개시될 수 있다. 일 실시예에 따른 원격 처리부는, 상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하는 제어 신호 생성부; 상기 제어 신호를 상기 복수의 소형 무인기로 송신하고, 상기 복수의 소형 무인기로부터 대상체에 대한 레이더 수신 데이터를 수신하는 통신 모듈; 및 상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 데이터 처리부를 포함할 수 있다.According to an embodiment of the present invention, a remote processing unit connected to a plurality of small UAVs through a network may be disclosed. According to an embodiment, the remote processing unit includes: a control signal generator for generating a control signal for controlling at least one of a large or beam waveform for the plurality of small UAVs; A communication module for transmitting the control signal to the plurality of small unmanned aerial vehicles and receiving radar reception data for an object from the plurality of small unmanned aerial vehicles; And a data processing unit that generates an image of the object based on the radar received data.

일 실시예에 있어서, 상기 데이터 처리부는 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하고, 상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 상기 영상을 생성할 수 있다.In an embodiment, the data processor may process the radar received data to identify the object and the clutter, and classify the object and the clutter to generate the image of the object.

일 실시예에 있어서, 상기 데이터 처리부는 상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용할 수 있다.In an embodiment, the data processor may apply the radar received data to an artificial intelligence algorithm for classifying the object and the clutter.

일 실시예에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기를 상기 대상체가 위치하는 장소로 이동시키기 위한 신호를 더 포함할 수 있다.In an embodiment, the control signal may further include a signal for moving the plurality of small UAVs to a location where the object is located.

일 실시예에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기에 대해 상기 대형 또는 상기 빔 파형 중 적어도 하나를 변경시키기 위한 신호를 더 포함할 수 있다.In an embodiment, the control signal may further include a signal for changing at least one of the large size or the beam waveform for the plurality of small UAVs.

본 발명의 일 실시예에 따르면, 소형 무인기용 레이더 센서 탑재체로서, 레이더 센서 탑재체가 탑재되어 있는 복수개의 소형 무인기를 멀티 운용하고, 멀티 운용되는 복수개의 소형 무인기를 이용하여 분산 협동형 레이더 센서를 구현하되, 분산 협동형 레이더 센서에 포함된 임의의 레이더 센서에서 대상체에 방사되어 대상체로부터 반사된 레이더 신호는 분산 협동형 레이더 센서에 포함된 다른 레이더 센서에서 탐지 데이터로 수신되고, 분산 협동형 레이더 센서는 멀티 운용되는 범위 내에서 다른 소형 무인기와 통신을 수행하여 획득 데이터에 대한 정보를 공유할 수 있다.According to an embodiment of the present invention, as a radar sensor mount for a small UAV, a plurality of small UAVs equipped with a radar sensor mount are multi-operated, and a distributed cooperative radar sensor is implemented using a plurality of small UAVs that are multi-operated. However, the radar signal radiated to the object and reflected from the object from any radar sensor included in the distributed cooperative radar sensor is received as detection data from another radar sensor included in the distributed cooperative radar sensor, and the distributed cooperative radar sensor It is possible to share information on acquired data by performing communication with other small UAVs within the multi-operated range.

본 발명의 일 실시예에 따르면, 복수의 소형 무인기 및 원격 처리부를 포함하는 탐지 시스템에서 대상체를 탐지하는 방법이 개시될 수 있다. 일 실시예에 따른 방법은, 상기 원격 처리부에서, 상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하는 단계; 상기 복수의 소형 무인기에서, 상기 원격 처리부로부터 상기 제어 신호를 수신하는 단계; 상기 복수의 소형 무인기에서, 상기 제어 신호에 기초하여 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계; 상기 원격 처리부에서, 상기 복수의 소형 무인기로부터 상기 레이더 수신 데이터를 수신하는 단계; 및 상기 원격 처리부에서, 상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of detecting an object in a detection system including a plurality of small UAVs and a remote processing unit may be disclosed. A method according to an embodiment includes the steps of: generating a control signal for controlling at least one of a large size or a beam waveform for the plurality of small UAVs, in the remote processing unit; Receiving the control signal from the remote processing unit in the plurality of small UAVs; Obtaining, from the plurality of small UAVs, radar reception data for the object based on the control signal; Receiving, at the remote processing unit, the radar reception data from the plurality of small unmanned aerial vehicles; And generating, at the remote processing unit, an image of the object based on the radar received data.

일 실시예에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는, 상기 제어 신호에 기초하여 빔을 상기 대상체에 송신하는 단계; 및 상기 대상체로부터 반사되는 빔을 수신하여 상기 대상체에 대한 상기레이더 수신 데이터를 획득하는 단계를 포함할 수 있다.In an embodiment, the obtaining of radar reception data for the object comprises: transmitting a beam to the object based on the control signal; And receiving the beam reflected from the object to obtain the radar reception data for the object.

일 실시예에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는 상기 제어 신호에 기초하여 상기 대형에 대응하는 위치를 결정하는 단계를 포함할 수 있다.In an embodiment, acquiring radar reception data for the object may include determining a location corresponding to the formation based on the control signal.

일 실시예에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는 상기 제어 신호에 기초하여 상기 빔 파형에 대응하는 상기 빔을 생성하는 단계를 포함할 수 있다.In an embodiment, obtaining radar reception data for the object may include generating the beam corresponding to the beam waveform based on the control signal.

일 실시예에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는 상기 복수의 소형 무인기 간에 통신을 수행하여 상기 복수의 소형 무인기 각각의 위치 및 특성에 따라 상기 빔 파형을 가변시키는 단계를 더 포함할 수 있다.In one embodiment, the step of obtaining radar reception data for the object further comprises performing communication between the plurality of small UAVs and varying the beam waveform according to the positions and characteristics of each of the plurality of small UAVs. can do.

일 실시예에 있어서, 상기 대상체에 대한 영상을 생성하는 단계는, 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하는 단계; 및 상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 영상을 생성하는 단계를 포함할 수 있다.In an embodiment, the generating of the image of the object comprises: identifying the object and the clutter by processing the radar received data; And generating an image of the object by classifying the object and the clutter.

일 실시예에 있어서, 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하는 단계는, 상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용하는 단계를 포함할 수 있다.In an embodiment, the step of processing the radar received data to identify the object and the clutter may include applying the radar received data to an artificial intelligence algorithm for classifying the object and the clutter. have.

일 실시예에 있어서, 상기 방법은, 상기 탐지 시스템의 인공지능 서버에서, 상기 레이더 수신 데이터를 인공지능 학습에 이용하여 상기 인공지능 알고리즘을 갱신하는 단계; 및 상기 인공지능 서버에서, 상기 갱신된 인공지능 알고리즘을 상기 원격 처리부에 제공하는 단계를 더 포함할 수 있다.In an embodiment, the method includes: updating the artificial intelligence algorithm by using the radar received data for artificial intelligence learning, in an artificial intelligence server of the detection system; And providing, in the artificial intelligence server, the updated artificial intelligence algorithm to the remote processing unit.

본 발명의 다양한 실시예에 따르면 복수의 소형 무인기(예를 들어, 드론 등) 각각에 레이더 센서를 탑재하고, 복수의 소형 무인기의 멀티 운용에 의한 분산 협동형 레이더 센서를 구현함으로써, 기존 센서(예를 들어, 카메라, 열화상 카메라, 적외선 카메라 등)에 비해 사람이 시각적으로 확인할 수 없는 비가시 영역이 탐지될 수 있다.According to various embodiments of the present invention, a radar sensor is mounted on each of a plurality of small unmanned aerial vehicles (e.g., drones, etc.), and a distributed cooperative radar sensor is implemented by multi-operation of a plurality of small unmanned aerial vehicles. For example, compared to a camera, a thermal imaging camera, an infrared camera, etc.), an invisible area that cannot be visually identified by a human may be detected.

또한, 복수의 소형 무인기를 이용하여 분산 협동형 레이더 센서를 구성함으로써, 개별 레이더 센서에 비해 탐지 거리가 향상될 뿐만 아니라 분산 협동형 레이더 센서를 통해 획득된 레이더 수신 데이터를 이용하여 품질이 향상된 영상을 제공할 수 있다.In addition, by configuring a distributed cooperative radar sensor using a plurality of small unmanned aerial vehicles, not only the detection distance is improved compared to individual radar sensors, but also images with improved quality are displayed using the radar reception data acquired through the distributed cooperative radar sensor. Can provide.

또한, 복수의 소형 무인기를 이용함으로써, 일부 소형 무인기의 전력 부족 및 오류(예를 들어 오류)와 같은 상황에서 대체 소형 무인기를 이용하여 연속적인 탐지 임무가 수행될 수 있다.In addition, by using a plurality of small UAVs, in situations such as power shortage and errors (for example, errors) of some small UAVs, a continuous detection mission may be performed using an alternative small UAV.

또한, 복수의 소형 무인기의 대열을 변경할 수 있으므로, 다양한 안테나 빔 포밍이 가능하고, 이를 통해 탐지하고자 하는 대상체를 다양한 시각으로 확인할 수 있으므로 대상체의 정보가 다양하게 획득될 수 있을 뿐만 아니라, 소형 무인기의 레이더 센서마다 파형을 달리 설정할 수 있어 대상체의 탐지율이 높아질 수 있다.In addition, since the order of a plurality of small UAVs can be changed, various antenna beamforming is possible, and an object to be detected can be checked at various times, so that various information of the object can be obtained, as well as Since the waveform can be set differently for each radar sensor, the detection rate of the object can be increased.

또한, 대상체의 다양한 정보를, 데이터가 많이 필요로 하는 인공지능 학습을 위한 자료로서 이용될 수 있으므로, 인공지능의 성능을 향상시킬 수 있고, 이를 통해 대상체의 탐지율이 높아질 수 있다.In addition, since various information of an object can be used as data for artificial intelligence learning that requires a lot of data, the performance of the artificial intelligence can be improved, and the detection rate of the object can be increased through this.

더욱이, 이동형 감시 정찰, 접근 불가능 지역 탐지, 위험 지역 탐지, 지뢰 탐지 등 사람이 확인하기 어려운 지역 및 대상체를 탐지하는데 활용될 수 있다.Moreover, it can be used to detect areas and objects that are difficult to identify by humans, such as mobile surveillance and reconnaissance, inaccessible area detection, hazardous area detection, and land mine detection.

도 1은 본 발명의 일 실시예에 따른 탐지 시스템을 개략적으로 나타낸 도면이다.
도 2a 내지 도 2c는 본 발명의 일 실시예에 따른 복수의 드론의 대형을 나타낸 예시도이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 복수의 드론의 빔 파형을 나타낸 예시도이다.
도 4는 본 발명의 일 실시예에 따라 대상체를 탐지하는 방법을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 복수의 드론으로부터 대상체에 대한 레이더 수신 데이터를 획득하는 예를 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따른 복수의 드론으로부터 획득된 레이더 수신 데이터를 합성한 합성 데이터를 나타낸 예시도이다.
도 7은 본 발명의 일 실시예에 따른 대상체에 대한 영상을 나타낸 예시도이다.
1 is a schematic diagram of a detection system according to an embodiment of the present invention.
2A to 2C are exemplary views showing the large size of a plurality of drones according to an embodiment of the present invention.
3A to 3C are exemplary views showing beam waveforms of a plurality of drones according to an embodiment of the present invention.
4 is a flowchart illustrating a method of detecting an object according to an embodiment of the present invention.
5 is an exemplary view showing an example of obtaining radar reception data for an object from a plurality of drones according to an embodiment of the present invention.
6 is an exemplary view showing composite data obtained by synthesizing radar reception data obtained from a plurality of drones according to an embodiment of the present invention.
7 is an exemplary view showing an image of an object according to an embodiment of the present invention.

본 발명의 실시예들은 본 발명의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 발명에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.Embodiments of the present invention are illustrated for the purpose of describing the technical idea of the present invention. The scope of the rights according to the present invention is not limited to the embodiments presented below or the detailed description of these embodiments.

본 발명에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 발명에 사용되는 모든 용어들은 본 발명을 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical terms and scientific terms used in the present invention have meanings generally understood by those of ordinary skill in the art, unless otherwise defined. All terms used in the present invention are selected for the purpose of describing the present invention more clearly, and are not selected to limit the scope of the present invention.

본 발명에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as "comprising", "having", "having" and the like used in the present invention are open terms that imply the possibility of including other embodiments unless otherwise stated in the phrase or sentence in which the expression is included. It should be understood as (open-ended terms).

본 발명에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.The expression of the singular form described in the present invention may include the meaning of the plural, unless otherwise stated, and this applies equally to the expression of the singular form described in the claims.

본 발명에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.Expressions such as "first" and "second" used in the present invention are used to distinguish a plurality of elements from each other, and do not limit the order or importance of the elements.

본 발명에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 례로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 분리될 수 있다.The term "unit" used in the present invention refers to software or hardware components such as field-programmable gate array (FPGA) and application specific integrated circuit (ASIC). However, "unit" is not limited to hardware and software. The “unit” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "unit" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, Includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. Components and functions provided within "units" may be combined into a smaller number of components and "units" or separated into additional components and "units".

본 발명에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.The expression "based on" as used in the present invention is used to describe one or more factors that influence the act or action of a decision judgment, which is described in a phrase or sentence in which the expression is included, and this expression However, additional factors that influence the behavior or behavior of judgment are not excluded.

본 발명에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 어떤 구성요소가 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present invention, when a component is referred to as being "connected" or "connected" to another component, a component can be directly connected to or can be connected to another component, or a new other component It is to be understood that it may or may be connected via an element.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, the same or corresponding elements are assigned the same reference numerals. In addition, in the description of the following embodiments, overlapping descriptions of the same or corresponding components may be omitted. However, even if description of a component is omitted, it is not intended that such component is not included in any embodiment.

도 1은 본 발명의 일 실시예에 따른 탐지 시스템을 개략적으로 나타낸 도면이다. 도 1을 참조하면, 탐지 시스템(100)은 레이더 수신 데이터 획득부(110) 및 원격 처리부(120)를 포함할 수 있다. 또한, 탐지 시스템(100)은 인공 지능 서버(130)를 포함할 수 있다. 일 실시예에 있어서, 레이더 수신 데이터 획득부(110)는 네트워크(140)를 통해 원격 처리부(120)와 연결될 수 있다. 또한, 원격 처리부(120)는 네트워크(140)를 인공 지능 서버(130)와 연결될 수 있다.1 is a schematic diagram of a detection system according to an embodiment of the present invention. Referring to FIG. 1, the detection system 100 may include a radar reception data acquisition unit 110 and a remote processing unit 120. In addition, the detection system 100 may include an artificial intelligence server 130. In one embodiment, the radar reception data acquisition unit 110 may be connected to the remote processing unit 120 through the network 140. In addition, the remote processing unit 120 may connect the network 140 to the artificial intelligence server 130.

레이더 수신 데이터 획득부(110)는 탐지하고자 하는 대상체에 대한 레이더 수신 데이터를 획득할 수 있다. 예를 들면, 대상체는 지형, 사람, 건물, 비행체, 지뢰 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 일 실시예에 있어서, 레이더 수신 데이터 획득부(110)는 대상체에 대해 레이더 신호(즉, 레이더 빔)를 방사하고 대상체로부터 반사되는 레이더 신호를 수신하여 대상체에 대한 레이더 수신 데이터를 획득할 수 있다. 일 실시예에 있어서, 레이더 수신 데이터 획득부(110)는 복수의 소형 무인기를 포함할 수 있다. 예를 들면, 복수의 소형 무인기는 복수의 드론(112)을 포함할 수 있다.The radar reception data acquisition unit 110 may acquire radar reception data for an object to be detected. For example, the object may include terrain, people, buildings, aircraft, land mines, etc., but is not limited thereto. In an embodiment, the radar reception data acquisition unit 110 may obtain radar reception data for the object by emitting a radar signal (ie, a radar beam) to the object and receiving a radar signal reflected from the object. In an embodiment, the radar reception data acquisition unit 110 may include a plurality of small UAVs. For example, a plurality of small UAVs may include a plurality of drones 112.

복수의 드론(112)은 원격 처리부(120)로부터 제공되는 제어 신호에 기초하여 대형 또는 빔 파형 중 적어도 하나를 설정하고, 대상체에 대한 레이더 수신 데이터를 획득할 수 있다. 일 실시예에 있어서, 대형은 복수의 드론(112)이 대상체 상에서 배치되는 형태를 의미할 수 있다. 예를 들면, 대형은 도 2a에 도시된 바와 같은 원형 대형, 도 2b에 도시된 바와 같은 타원형 대형, 도 2c에 도시된 바와 같은 사각형 대형을 포함할 수 있다. 그러나, 대형은 원형 대형, 타원형 대형, 사각형 대형으로 한정되지 않고, 대상체에 따라 다양한 형태의 대형을 포함할 수 있다.The plurality of drones 112 may set at least one of a large size or a beam waveform based on a control signal provided from the remote processing unit 120 and obtain radar reception data for an object. In one embodiment, the large size may mean a form in which a plurality of drones 112 are disposed on an object. For example, the large size may include a circular large size as shown in Fig. 2A, an elliptical large size as shown in Fig. 2B, and a rectangular large size as shown in Fig. 2C. However, the large size is not limited to a circular large size, an elliptical large size, and a rectangular large size, and may include various types of large sizes depending on the object.

일 실시예에 있어서, 복수의 드론(112)은 원격 처리부(120)로부터 제공되는 제어 신호에 기초하여 서로 간에 통신을 수행하여 대형에 대응하는 위치를 결정할 수 있다.In an embodiment, the plurality of drones 112 may communicate with each other based on a control signal provided from the remote processing unit 120 to determine a location corresponding to a large size.

일 실시예에 있어서, 빔 파형은 대상체에 따라 복수의 드론(112)에 대해 안테나 빔 포밍을 위해 다양하게 설정될 수 있다. 일 예로서, 복수의 드론(112)은 도 3a에 도시된 바와 같이 빔 파형(빔 파형 1 내지 빔 파형 9)이 설정될 수 있다. 다른 예로서, 복수의 드론(112)은 도 3b에 도시된 바와 같이 빔 파형(빔 파형 A 내지 빔 파형 I)이 설정될 수 있다. 또 다른 예로서, 복수의 드론(112)은 도 3c에 도시된 바와 같이 빔 파형(빔 파형 a 내지 빔 파형 i)이 설정될 수 있다.In one embodiment, the beam waveform may be variously set for antenna beamforming for the plurality of drones 112 according to the object. As an example, the plurality of drones 112 may have a beam waveform (beam waveform 1 to beam waveform 9) as shown in FIG. 3A. As another example, the plurality of drones 112 may have a beam waveform (beam waveform A to beam waveform I) as shown in FIG. 3B. As another example, the plurality of drones 112 may have a beam waveform (beam waveform a to beam waveform i) as shown in FIG. 3C.

일 실시예에 있어서, 복수의 드론(112)은 서로 간에 통신을 수행하여 해당 드론의 위치 및 특성에 따라 빔 파형을 가변할 수 있다. 따라서, 대상체의 탐지율이 향상될 수 있다.In one embodiment, the plurality of drones 112 may communicate with each other to change a beam waveform according to the location and characteristics of the drone. Accordingly, the detection rate of the object can be improved.

일 실시예에 있어서, 복수의 드론(112)은 서로 간에 통신을 수행하여, 획득된 레이더 수신 데이터에 관한 정보를 송수신할 수 있다. 즉, 복수의 드론(112)은 획득된 레이더 수신 데이터에 관한 정보를 공유할 수 있다.In one embodiment, the plurality of drones 112 may communicate with each other to transmit and receive information on the acquired radar reception data. That is, the plurality of drones 112 may share information on the acquired radar reception data.

일 실시예에 있어서, 복수의 드론(112) 각각은: 레이더 신호의 송수신 및 디지털화하고 레이더 신호의 신호 처리를 수행하는 레이더 센서 탑재체(도시하지 않음); 네트워크(140)를 통해 원격 처리부(120)와 무선 통신을 수행하고 드론 간에 무선 통신을 수행하는 무선통신 탑재체(도시하지 않음); 레이더 파형을 실은 무선신호(즉, 빔) 및 무선 통신을 위한 무선 신호를 방사 및 수신할 수 있는 안테나 탑재체(도시하지 않음); 드론(112)의 위치 식별을 위한 항법 장치, 보조 센서 등을 탑재할 수 있는 보조기능 탑재체(도시하지 않음); 및 레이더 센서 탑재체, 무선통신 탑재체, 안테나 탑재체 및 보조기능 탑재체를 드론(112)에 고정시키기 위한 탑재체 고정 기구물(도시하지 않음)을 포함할 수 있다.In one embodiment, each of the plurality of drones 112 includes: a radar sensor mount (not shown) that transmits and receives radar signals and digitizes them and performs signal processing of the radar signals; A wireless communication payload (not shown) for performing wireless communication with the remote processing unit 120 through the network 140 and performing wireless communication between drones; An antenna mount (not shown) capable of emitting and receiving a radio signal (ie, a beam) carrying a radar waveform and a radio signal for radio communication; An auxiliary function loading body (not shown) capable of mounting a navigation device for identifying the location of the drone 112, an auxiliary sensor, and the like; And a payload fixing mechanism (not shown) for fixing a radar sensor payload, a wireless communication payload, an antenna payload, and an auxiliary function payload to the drone 112.

일 실시예에 있어서, 레이더 센서 탑재체가 탑재되어 있는 복수개의 드론(112)을 멀티 운용하여 분산 협동형 레이더 센서를 구현할 수 있다. 예를 들면, 분산 협동형 레이더 센서는 해당 드론(112)의 레이더 센서로부터 방사되어 대상체로부터 반사된 레이더 신호를 수신할 뿐만 아니라, 다른 드론(112)의 레이더 센서로부터 방사되어 대상체로부터 반사된 레이더 신호를 수신할 수 있다. 이 과정에서 복수의 드론(112) 각각으로부터 획득된 레이더 수신 데이터를 합성하여 합성 데이터를 생성하고, 생성된 합성 데이터로부터 대상체 및 클러터를 식별하며, 식별된 대상체 및 클러터에 기초하여 대상체에 대한 영상을 생성할 수 있다.In one embodiment, a distributed cooperative radar sensor may be implemented by multi-operating a plurality of drones 112 on which a radar sensor mount is mounted. For example, the distributed cooperative radar sensor not only receives the radar signal reflected from the object by being radiated from the radar sensor of the corresponding drone 112, but also the radar signal reflected from the object by being emitted from the radar sensor of the other drone 112. Can receive. In this process, the radar reception data obtained from each of the plurality of drones 112 are synthesized to generate synthetic data, the object and the clutter are identified from the generated synthetic data, and the object is determined based on the identified object and the clutter. You can create an image.

이 과정에서 복수개의 드론은 멀티 운용이 이루어지고, 각각의 드론에 장착된 레이다 센서에서 방사되는 레이더 신호는 멀티 운용이 이루어지는 복수개의 드론 각각에서 탐지 데이터로 수신되고, 또한 멀티 운용되는 복수개의 드론 사이에서 통신을 통하여 대상체에 대한 데이터 정보 공유가 이루어진다.In this process, multiple drones are multi-operated, and radar signals radiated from radar sensors mounted on each drone are received as detection data from each of the multiple drones that are multi-operated. Data information about the object is shared through communication at.

원격 처리부(120)는 레이더 수신 데이터 획득부(110)를 제어하기 위한 제어 신호를 생성할 수 있다. 일 실시예에 있어서, 제어 신호는 복수의 드론(112)을 탐지하고자 하는 대상체가 위치하고 있는 장소로 이동시키기 위한 제1 제어 신호를 포함할 수 있다. 일 실시예에 있어서, 제어 신호는 대상체가 위치하고 있는 장소로 이동된 복수의 드론(112)의 대형을 설정하기 위한 제2 제어 신호 또는 복수의 드론(112)의 빔 파형을 설정하기 위한 제3 제어 신호 중 적어도 하나를 포함할 수 있다. 예를 들면, 제3 제어 신호는 대형에 따라 빔 포밍 및 빔 송신을 위해 복수의 드론(112) 각각의 안테나(310, 도 4 참조)를 재구성하기 위한 제어 신호일 수 있다. 일 실시예에 있어서, 제어 신호는 복수의 드론(112)의 대형을 변경하기 위한 제4 제어 신호 또는 복수의 드론(112)의 빔 파형을 변경하기 위한 제5 제어 신호 중 적어도 하나를 포함할 수 있다. The remote processing unit 120 may generate a control signal for controlling the radar reception data acquisition unit 110. In an embodiment, the control signal may include a first control signal for moving the plurality of drones 112 to a location where an object to be detected is located. In one embodiment, the control signal is a second control signal for setting the size of the plurality of drones 112 moved to the place where the object is located or a third control for setting the beam waveforms of the plurality of drones 112 It may include at least one of the signals. For example, the third control signal may be a control signal for reconfiguring the antennas 310 (refer to FIG. 4) of each of the plurality of drones 112 for beamforming and beam transmission according to the size. In one embodiment, the control signal may include at least one of a fourth control signal for changing the formation of the plurality of drones 112 or a fifth control signal for changing the beam waveform of the plurality of drones 112. have.

원격 처리부(120)는 생성된 제어 신호를 네트워크(140)를 통해 레이더 수신 데이터 획득부(110)로 송신하고, 레이더 수신 데이터 획득부(110)로부터 네트워크(140)를 통해 레이더 수신 데이터를 수신하며, 수신된 레이더 수신 데이터를 처리하여 대상체에 대한 영상을 생성할 수 있다. The remote processing unit 120 transmits the generated control signal to the radar reception data acquisition unit 110 through the network 140, receives radar reception data from the radar reception data acquisition unit 110 through the network 140, and , By processing the received radar reception data, an image of the object may be generated.

일 실시예에 있어서, 원격 처리부(120)는 수신된 레이더 수신 데이터를 처리하여 대상체와 클러터를 파악하여 대상체와 클러터를 식별하고, 식별된 대상체와 클러터를 분류하여 대상체에 대한 영상을 생성할 수 있다.In one embodiment, the remote processing unit 120 processes the received radar reception data to identify the object and the clutter to identify the object and the clutter, and classifies the identified object and the clutter to generate an image of the object. can do.

일 실시예에 있어서, 원격 처리부(120)는 레이더 수신 데이터를 대상체 및 클러터를 분류하기 위한 인공지능 알고리즘에 적용하여 대상체 및 클러터를 분류할 수 있다. 예를 들면, 인공지능 알고리즘은 인공지능 서버(130)에 의해 갱신된 알고리즘일 수 있다.In an embodiment, the remote processing unit 120 may classify the object and the clutter by applying the radar received data to an artificial intelligence algorithm for classifying the object and the clutter. For example, the artificial intelligence algorithm may be an algorithm updated by the artificial intelligence server 130.

일 실시예에 있어서, 원격 처리부(120)는 복수의 드론(112)에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하는 제어 신호 생성부(도시하지 않음), 제어 신호를 복수의 드론(112)으로 송신하고, 복수의 드론(112)으로부터 대상체에 대한 레이더 수신 데이터를 수신하는 통신 모듈(도시하지 않음) 및 레이더 수신 데이터에 기초하여 대상체에 대한 영상을 생성하는 데이터 처리부(도시하지 않음)를 포함할 수 있다.In one embodiment, the remote processing unit 120 generates a control signal generation unit (not shown) for generating a control signal for controlling at least one of a large or beam waveform for the plurality of drones 112, a plurality of control signals. A communication module (not shown) that transmits to the drone 112 of, and receives radar reception data for the object from the plurality of drones 112, and a data processing unit (shown) that generates an image of the object based on the radar received data. Not).

인공지능 서버(130)는 네트워크(140)를 통해 원격 처리부(120)에 연결될 수 있다. 인공지능 서버(130)는 원격 처리부(120)로부터 레이더 수신 데이터를 수신하고, 수신된 레이더 수신 데이터를 인공지능 학습에 이용하여 인공지능 알고리즘을 갱신할 수 있다. 일 실시예에 있어서, 인공지능 서버(130)는 특이점 식별 및 비교 알고리즘을 이용하여 레이더 수신 데이터의 처리 결과에 대한 특이점 식별 및 비교를 수행하고, 특이점 식별 및 비교 결과를 학습 알고리즘에 적용하여 인공지능 알고리즘을 갱신할 수 있다. 인공지능 서버(130)는 갱신된 인공지능 알고리즘을 네트워크(140)를 통해 원격 처리부(120)로 전송할 수 있다.The artificial intelligence server 130 may be connected to the remote processing unit 120 through the network 140. The artificial intelligence server 130 may receive radar reception data from the remote processing unit 120, and update the artificial intelligence algorithm by using the received radar reception data for artificial intelligence learning. In one embodiment, the artificial intelligence server 130 performs singular point identification and comparison on the processing result of the radar received data using a singular point identification and comparison algorithm, and applies the singular point identification and comparison result to a learning algorithm. Algorithm can be updated. The artificial intelligence server 130 may transmit the updated artificial intelligence algorithm to the remote processing unit 120 through the network 140.

일 실시예에 있어서, 인공지능 서버(130)는 대상체 별로 빔 포밍 조건 및 레이더 수신 데이터의 처리 결과를 저장하는 저장부(도시하지 않음), 특이점 식별 및 비교 알고리즘을 저장하고 특이점 식별 및 비교 알고리즘을 이용하여 레이더 수신 데이터의 처리 결과에 대한 특이점 식별 및 비교를 수행하는 특이점 식별 및 비교 알고리즘 처리부(도시하지 않음), 및 학습 알고리즘을 저장하고 특이점 식별 및 비교 결과를 학습 알고리즘에 적용하여 인공지능 알고리즘을 갱신하는 학습 알고리즘 처리부(도시하지 않음)를 포함할 수 있다.In one embodiment, the artificial intelligence server 130 stores a storage unit (not shown) that stores a beamforming condition and a processing result of radar reception data for each object, a singular point identification and comparison algorithm, and performs a singular point identification and comparison algorithm. A singular point identification and comparison algorithm processing unit (not shown) that performs singularity identification and comparison on the processing result of the radar received data, and the learning algorithm, and applies the singular point identification and comparison result to the learning algorithm to apply the artificial intelligence algorithm. It may include a learning algorithm processing unit (not shown) to update.

도 4는 본 발명의 일 실시예에 따라 대상체를 탐지하는 방법을 나타낸 흐름도이다. 도 4에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동되도록 구성될 수 있다. 다시 말하면, 본 발명의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 발명에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.4 is a flowchart illustrating a method of detecting an object according to an embodiment of the present invention. Although process steps, method steps, algorithms, and the like have been described in a sequential order in the flowchart shown in FIG. 4, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in various embodiments of the present invention need not be performed in the order described in the present invention. Further, although some steps are described as being performed asynchronously, in other embodiments, some of these steps may be performed simultaneously. Further, the illustration of the process by depiction in the drawings does not imply that the illustrated process excludes other changes and modifications thereto, and the illustrated process or any of its steps are among the various embodiments of the present disclosure. It does not imply that it is essential for one or more, and does not imply that the illustrated process is desirable.

도 4를 참조하면, 단계 S402에서, 원격 처리부(120)는 복수의 드론(112)에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성할 수 있다. 일 실시예에 있어서, 원격 처리부(120)는 복수의 드론(112)을 탐지하고자 하는 대상체가 위치하고 있는 장소로 이동시키기 위한 제1 제어 신호를 포함하는 제어 신호를 생성할 수 있다. 일 실시예에 있어서, 원격 처리부(120)는 대상체가 위치하고 있는 장소로 이동된 복수의 드론(112)의 대형을 설정하기 위한 제2 제어 신호 또는 복수의 드론(112)의 빔 파형을 설정하기 위한 제3 제어 신호 중 적어도 하나를 포함하는 제어 신호를 생성할 수 있다.Referring to FIG. 4, in step S402, the remote processing unit 120 may generate a control signal for controlling at least one of large or beam waveforms for the plurality of drones 112. In an embodiment, the remote processing unit 120 may generate a control signal including a first control signal for moving the plurality of drones 112 to a location where an object to be detected is located. In one embodiment, the remote processing unit 120 is a second control signal for setting the size of the plurality of drones 112 moved to the location where the object is located, or for setting the beam waveforms of the plurality of drones 112 A control signal including at least one of the third control signals may be generated.

단계 S404에서, 복수의 드론(112)은 원격 처리부(120)로부터 네트워크(140)를 통해 제어 신호를 수신할 수 있다. 일 실시예에 있어서, 복수의 드론(112)은 원격 처리부(120)로부터 제1 제어 신호를 포함하는 제어 신호를 수신할 수 있다. 일 실시예에 있어서, 복수의 드론(112)은 원격 처리부(120)로부터 제2 제어 신호 또는 복수의 드론(112)의 빔 파형을 설정하기 위한 제3 제어 신호 중 적어도 하나를 포함하는 제어 신호를 수신할 수 있다.In step S404, the plurality of drones 112 may receive control signals from the remote processing unit 120 through the network 140. In an embodiment, the plurality of drones 112 may receive a control signal including a first control signal from the remote processing unit 120. In one embodiment, the plurality of drones 112 transmit a control signal including at least one of a second control signal from the remote processing unit 120 or a third control signal for setting a beam waveform of the plurality of drones 112. Can receive.

단계 S406에서, 복수의 드론(112)은 제어 신호에 기초하여 대상체에 대한 레이더 수신 데이터를 획득할 수 있다. 일 실시예에 있어서, 복수의 드론(112)은 제어 신호(즉, 제1 제어 신호)에 기초하여 탐지하고자 하는 대상체가 위치하고 있는 장소로 이동할 수 있다. 일 실시예에 있어서, 복수의 드론(112)은 제어 신호(즉, 제2 제어 신호)에 기초하여 대형에 대응하는 위치를 결정할 수 있다. 일 실시예에 있어서, 복수의 드론(112)은 제어 신호(즉, 제3 제어 신호)에 기초하여 대상체에 송신할 레이더 신호(즉, 레이더 빔)의 파형을 결정하고, 결정된 파형의 레이더 신호를 생성할 수 있다. 또한, 복수의 드론(112) 각각은 생성된 레이더 신호를 대상체에 방사하고 대상체로부터 반사되는 레이더 신호를 수신하여 대상체에 대한 레이더 수신 데이터를 획득할 수 있다.In step S406, the plurality of drones 112 may acquire radar reception data for the object based on the control signal. In an embodiment, the plurality of drones 112 may move to a location where an object to be detected is located based on a control signal (ie, a first control signal). In an embodiment, the plurality of drones 112 may determine a location corresponding to a large size based on a control signal (ie, a second control signal). In one embodiment, the plurality of drones 112 determine a waveform of a radar signal (ie, a radar beam) to be transmitted to the object based on a control signal (ie, a third control signal), and the radar signal of the determined waveform is Can be generated. In addition, each of the plurality of drones 112 may radiate the generated radar signal to the object and receive radar signals reflected from the object to obtain radar reception data for the object.

예를 들면, 복수의 드론(112)은 도 5에 도시된 바와 같이, 대상체(500) 상에서 대형에 대응하는 위치에서 레이더 신호(즉, 레이더 빔)을 방사하고, 대상체(500)로부터 반사되는 레이더 신호를 수신하여 대상체(500)에 대한 레이더 수신 데이터를 획득할 수 있다.For example, a plurality of drones 112 radiate a radar signal (ie, a radar beam) at a position corresponding to a large size on the object 500, as shown in FIG. 5, and the radar reflected from the object 500 By receiving a signal, radar reception data for the object 500 may be obtained.

선택적으로, 복수의 드론(112)은 서로 간에 무선 통신을 수행하여 복수의 드론(112) 각각의 위치 및 특성에 따라 빔 파형을 가변시킬 수 있다.Optionally, the plurality of drones 112 may perform wireless communication with each other to vary the beam waveform according to the positions and characteristics of each of the plurality of drones 112.

단계 S408에서, 원격 처리부(120)는 복수의 드론(112)으로부터 레이더 수신 데이터를 수신할 수 있다. 예를 들면, 원격 처리부(120)는 도 6에 도시된 바와 같이, 복수의 드론(112) 각각으로부터 획득된 레이더 수신 데이터를 수신할 수 있다.In step S408, the remote processing unit 120 may receive radar reception data from the plurality of drones 112. For example, as shown in FIG. 6, the remote processing unit 120 may receive radar reception data obtained from each of the plurality of drones 112.

단계 S410에서, 원격 처리부(120)는 레이더 수신 데이터에 기초하여 대상체에 대한 영상을 생성할 수 있다. 일 실시예에 있어서, 원격 처리부(120)는 레이더 수신 데이터를 처리하여 대상체와 클러터를 식별하고, 대상체와 클러터를 분류하여 대상체에 대한 영상을 생성할 수 있다. 일 실시예에 있어서, 원격 처리부(120)는 레이더 수신 데이터를 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용하여 대상체에 대한 영상을 생성할 수 있다.In step S410, the remote processing unit 120 may generate an image of the object based on the radar received data. In an embodiment, the remote processor 120 may process radar received data to identify an object and a clutter, and classify the object and the clutter to generate an image of the object. In an embodiment, the remote processing unit 120 may generate an image of an object by applying the radar received data to an artificial intelligence algorithm for classifying the object and the clutter.

예를 들면, 원격 처리부(120)는 도 7에 도시된 바와 같이, 복수의 드론(112) 각각으로부터 획득된 레이더 수신 데이터를 합성하여 합성 데이터를 생성하고, 생성된 합성 데이터로부터 대상체 및 클러터를 식별하며, 식별된 대상체 및 클러터에 기초하여 대상체에 대한 영상을 생성할 수 있다.For example, as shown in FIG. 7, the remote processing unit 120 generates composite data by synthesizing radar reception data obtained from each of the plurality of drones 112, and generates composite data from the generated composite data. It is identified, and an image of the object may be generated based on the identified object and clutter.

선택적으로, 원격 처리부(120)는 복수의 드론(112)의 대형을 변경하기 위한 제4 제어 신호 또는 복수의 드론(112)의 빔 파형을 변경하기 위한 제5 제어 신호 중 적어도 하나를 포함하는 제어 신호를 생성하고, 생성된 제어 신호를 복수의 드론(112)으로 송신할 수 있다. 따라서, 복수의 드론(112)은 제어 신호에 기초하여 대형 또는 빔 파형을 변경하고, 변경된 대형 또는 빔 파형에 따라 대상체에 대한 레이더 수신 데이터를 획득할 수 있다. 원격 처리부(120)는 새로이 획득된 레이더 수신 데이터에 기초하여 대상체에 대한 영상을 생성할 수 있다. 이와 같이, 대형 또는 빔 파형을 변경하여 대상체에 대한 레이더 데이터를 획득함으로써, 대상체에 대한 탐지율을 향상시킬 수 있다. Optionally, the remote processing unit 120 controls at least one of a fourth control signal for changing the size of the plurality of drones 112 or a fifth control signal for changing the beam waveform of the plurality of drones 112 A signal may be generated and the generated control signal may be transmitted to the plurality of drones 112. Accordingly, the plurality of drones 112 may change a large size or beam waveform based on the control signal, and obtain radar reception data for an object according to the changed large size or beam waveform. The remote processing unit 120 may generate an image of an object based on newly acquired radar reception data. In this way, the detection rate for the object may be improved by acquiring radar data for the object by changing a large size or a beam waveform.

또한 선택적으로, 원격 처리부(120)는 복수의 드론(112)으로부터 획득된 레이더 수신 데이터를 인공지능 서버(130)로 전송할 수 있다. 인공지능 서버(130)는 원격 처리부(120)로부터 제공되는 레이더 수신 데이터를 인공지능 학습에 이용하여 인공지능 알고리즘을 갱신하고, 갱신된 인공지능 알고리즘을 원격 처리부(120)로 전송할 수 있다.Also, optionally, the remote processing unit 120 may transmit radar reception data obtained from the plurality of drones 112 to the artificial intelligence server 130. The artificial intelligence server 130 may update the artificial intelligence algorithm by using radar reception data provided from the remote processing unit 120 for artificial intelligence learning, and transmit the updated artificial intelligence algorithm to the remote processing unit 120.

위 방법은 특정 실시예들을 통하여 설명되었지만, 위 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 위 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다. Although the above method has been described through specific embodiments, the above method may also be implemented as computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which the present invention belongs.

이상 일부 실시예들과 첨부된 도면에 도시된 예에 의해 본 발명의 기술적 사상이 설명되었지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이해할 수 있는 본 발명의 기술적 사상 및 범위를 벗어나지 않는 범위에서 다양한 치환, 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 속하는 것으로 생각되어야 한다.Although the technical idea of the present invention has been described with reference to some embodiments and examples shown in the accompanying drawings above, it does not depart from the technical idea and scope of the present invention that can be understood by those of ordinary skill in the art to which the present invention belongs. It will be appreciated that various substitutions, modifications and changes may be made in the range. In addition, such substitutions, modifications and alterations should be considered to fall within the scope of the appended claims.

100: 탐지 시스템 110: 레이더 데이터 획득부
112: 드론 120: 원격 처리부
130: 인공지능 서버 140: 네트워크
500: 대상체
100: detection system 110: radar data acquisition unit
112: drone 120: remote processing unit
130: artificial intelligence server 140: network
500: object

Claims (25)

탐지 시스템으로서,
복수의 소형 무인기를 포함하며 상기 복수의 소형 무인기를 통해 대상체에 대한 레이더 수신 데이터를 획득하는 레이더 수신 데이터 획득부; 및
네트워크를 통해 상기 복수의 소형 무인기에 연결되고, 상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하여 상기 복수의 소형 무인기로 송신하고, 상기 복수의 소형 무인기로부터 상기 레이더 수신 데이터를 수신하고 상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 원격 처리부
를 포함하고,
상기 원격 처리부는 상기 복수의 소형 무인기의 상기 대형에 따라 상기 복수의 소형 무인기로부터 방사되는 레이더 빔의 빔 포밍을 위한 상기 빔 파형을 설정하는 탐지 시스템.
As a detection system,
A radar reception data acquisition unit including a plurality of small UAVs and acquiring radar reception data for an object through the plurality of small UAVs; And
It is connected to the plurality of small UAVs through a network, generates a control signal for controlling at least one of a large size or a beam waveform for the plurality of small UAVs and transmits it to the plurality of small UAVs, from the plurality of small UAVs A remote processing unit that receives the radar reception data and generates an image of the object based on the radar reception data
Including,
The remote processing unit sets the beam waveform for beamforming of radar beams emitted from the plurality of small UAVs according to the size of the plurality of small UAVs.
제1항에 있어서, 상기 복수의 소형 무인기는 복수의 드론을 포함하고,
상기 복수의 드론 각각은 빔을 상기 대상체에 방사하고 상기 대상체로부터 반사되는 빔을 수신하여 상기 대상체에 대한 레이더 수신 데이터를 획득하는, 탐지 시스템.
The method of claim 1, wherein the plurality of small UAVs comprises a plurality of drones,
Each of the plurality of drones radiates a beam to the object and receives a beam reflected from the object to obtain radar reception data for the object.
삭제delete 제2항에 있어서, 상기 복수의 드론은 상기 제어 신호에 기초하여 상기 대형에 대응하는 위치를 결정하는, 탐지 시스템.The detection system of claim 2, wherein the plurality of drones determine a location corresponding to the formation based on the control signal. 제2항에 있어서, 상기 복수의 드론은 상기 제어 신호에 기초하여 상기 빔 파형에 대응하는 상기 빔을 생성하는, 탐지 시스템.The detection system of claim 2, wherein the plurality of drones generate the beams corresponding to the beam waveforms based on the control signals. 제5항에 있어서, 상기 복수의 드론은 서로 간에 통신을 수행하여 상기 복수의 드론 각각의 위치 및 특성에 따라 상기 빔 파형을 가변시키는, 탐지 시스템. The detection system of claim 5, wherein the plurality of drones communicate with each other to vary the beam waveform according to the positions and characteristics of each of the plurality of drones. 제1항에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기를 상기 대상체가 위치하는 장소로 이동시키기 위한 신호를 더 포함하는 탐지 시스템.The detection system of claim 1, wherein the control signal further comprises a signal for moving the plurality of small UAVs to a location where the object is located. 제1항에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기에 대해 상기 대형 또는 상기 빔 파형 중 적어도 하나를 변경시키기 위한 신호를 더 포함하는 탐지 시스템.The detection system of claim 1, wherein the control signal further comprises a signal for changing at least one of the large size or the beam waveform for the plurality of small UAVs. 제1항에 있어서, 상기 원격 처리부는 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하고, 상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 영상을 생성하는, 탐지 시스템.The detection system of claim 1, wherein the remote processor processes the radar received data to identify the object and the clutter, and classifies the object and the clutter to generate an image of the object. 제9항에 있어서, 상기 원격 처리부는 상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용하여, 상기 레이더 수신 데이터에 대한 특이점 식별 및 비교를 수행하고, 상기 특이점 식별 및 비교의 수행 결과에 기초하여 상기 대상체 및 상기 클러터를 분류하는, 탐지 시스템.The method of claim 9, wherein the remote processing unit applies the radar received data to an artificial intelligence algorithm for classifying the object and the clutter, performs singular point identification and comparison on the radar received data, and identifies the singular point and A detection system for classifying the object and the clutter based on a result of performing the comparison. 제10항에 있어서,
상기 네트워크를 통해 상기 원격 처리부에 연결되고, 상기 원격 처리부로부터 제공되는 상기 레이더 수신 데이터를 인공지능 학습에 이용하여 상기 인공지능 알고리즘을 갱신하고, 상기 갱신된 인공지능 알고리즘을 상기 원격 처리부에 제공하는 인공지능 서버
를 더 포함하고,
상기 인공지능 알고리즘은 특이점 식별 및 비교 알고리즘을 이용하여 상기 레이더 수신 데이터에 대한 상기 특이점 식별 및 비교를 수행하고, 상기 특이점 식별 및 비교의 수행 결과를 학습 알고리즘에 적용하여 갱신되는 탐지 시스템.
The method of claim 10,
An artificial intelligence that is connected to the remote processing unit through the network, updates the artificial intelligence algorithm by using the radar received data provided from the remote processing unit for artificial intelligence learning, and provides the updated artificial intelligence algorithm to the remote processing unit. Intelligent server
Including more,
The artificial intelligence algorithm performs the singular point identification and comparison on the radar received data using a singular point identification and comparison algorithm, and is updated by applying a result of the singular point identification and comparison to a learning algorithm.
네트워크를 통해 복수의 소형 무인기에 연결되는 원격 처리부로서,
상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하는 제어 신호 생성부;
상기 제어 신호를 상기 복수의 소형 무인기로 송신하고, 상기 복수의 소형 무인기로부터 대상체에 대한 레이더 수신 데이터를 수신하는 통신 모듈; 및
상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 데이터 처리부
를 포함하고,
상기 제어 신호 생성부는 상기 복수의 소형 무인기의 상기 대형에 따라 상기 복수의 소형 무인기로부터 방사되는 레이더 빔의 빔 포밍을 위한 상기 빔 파형을 설정하는 원격 처리부.
As a remote processing unit connected to a plurality of small UAVs through a network,
A control signal generator for generating a control signal for controlling at least one of large or beam waveforms for the plurality of small UAVs;
A communication module for transmitting the control signal to the plurality of small UAVs and receiving radar reception data for an object from the plurality of small UAVs; And
A data processing unit that generates an image of the object based on the radar received data
Including,
The control signal generator sets the beam waveform for beamforming of radar beams radiated from the plurality of small UAVs according to the size of the plurality of small UAVs.
제12항에 있어서, 상기 데이터 처리부는 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하고, 상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 상기 영상을 생성하는, 원격 처리부.The remote processing unit of claim 12, wherein the data processing unit processes the radar reception data to identify the object and the clutter, and classifies the object and the clutter to generate the image of the object. 제13항에 있어서, 상기 데이터 처리부는 상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용하여, 상기 레이더 수신 데이터에 대한 특이점 식별 및 비교를 수행하고, 상기 특이점 식별 및 비교의 수행 결과에 기초하여 상기 대상체 및 상기 클러터를 분류하는, 원격 처리부.The method of claim 13, wherein the data processing unit applies the radar received data to an artificial intelligence algorithm for classifying the object and the clutter to identify and compare singular points on the radar received data, and identify and compare the singular points. A remote processing unit that classifies the object and the clutter based on a result of performing the comparison. 제12항에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기를 상기 대상체가 위치하는 장소로 이동시키기 위한 신호를 더 포함하는 원격 처리부.The remote processing unit of claim 12, wherein the control signal further comprises a signal for moving the plurality of small UAVs to a location where the object is located. 제12항에 있어서, 상기 제어 신호는 상기 복수의 소형 무인기에 대해 상기 대형 또는 상기 빔 파형 중 적어도 하나를 변경시키기 위한 신호를 더 포함하는 원격 처리부.The remote processing unit of claim 12, wherein the control signal further comprises a signal for changing at least one of the large size or the beam waveform for the plurality of small UAVs. 삭제delete 복수의 소형 무인기 및 원격 처리부를 포함하는 탐지 시스템에서 대상체를 탐지하는 방법으로서,
상기 원격 처리부에서, 상기 복수의 소형 무인기에 대한 대형 또는 빔 파형 중 적어도 하나를 제어하기 위한 제어 신호를 생성하는 단계;
상기 복수의 소형 무인기에서, 상기 원격 처리부로부터 상기 제어 신호를 수신하는 단계;
상기 복수의 소형 무인기에서, 상기 제어 신호에 기초하여 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계;
상기 원격 처리부에서, 상기 복수의 소형 무인기로부터 상기 레이더 수신 데이터를 수신하는 단계; 및
상기 원격 처리부에서, 상기 레이더 수신 데이터에 기초하여 상기 대상체에 대한 영상을 생성하는 단계
를 포함하고,
상기 복수의 소형 무인기의 상기 대형에 따라 상기 복수의 소형 무인기로부터 방사되는 레이더 빔의 빔 포밍을 위한 상기 빔 파형이 상기 복수의 소형 무인기에 대해 설정되는 대상체 탐지 방법.
A method of detecting an object in a detection system including a plurality of small unmanned aerial vehicles and a remote processing unit,
Generating, at the remote processing unit, a control signal for controlling at least one of a large size or a beam waveform for the plurality of small UAVs;
Receiving the control signal from the remote processing unit in the plurality of small UAVs;
Obtaining, from the plurality of small UAVs, radar reception data for the object based on the control signal;
Receiving, at the remote processing unit, the radar reception data from the plurality of small unmanned aerial vehicles; And
Generating, by the remote processing unit, an image of the object based on the radar received data
Including,
An object detection method in which the beam waveform for beamforming of radar beams radiated from the plurality of small UAVs is set for the plurality of small UAVs according to the size of the plurality of small UAVs.
제18항에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는,
상기 제어 신호에 기초하여 빔을 상기 대상체에 송신하는 단계; 및
상기 대상체로부터 반사되는 빔을 수신하여 상기 대상체에 대한 상기레이더 수신 데이터를 획득하는 단계
를 포함하는 대상체 탐지 방법.
The method of claim 18, wherein obtaining radar reception data for the object comprises:
Transmitting a beam to the object based on the control signal; And
Receiving the beam reflected from the object and obtaining the radar reception data for the object
Object detection method comprising a.
제19항에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는
상기 제어 신호에 기초하여 상기 대형에 대응하는 위치를 결정하는 단계
를 포함하는 대상체 탐지 방법.
The method of claim 19, wherein obtaining radar reception data for the object
Determining a position corresponding to the formation based on the control signal
Object detection method comprising a.
제20항에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는
상기 제어 신호에 기초하여 상기 빔 파형에 대응하는 상기 빔을 생성하는 단계
를 포함하는 대상체 탐지 방법.
The method of claim 20, wherein obtaining radar reception data for the object
Generating the beam corresponding to the beam waveform based on the control signal
Object detection method comprising a.
제20항에 있어서, 상기 대상체에 대한 레이더 수신 데이터를 획득하는 단계는
상기 복수의 소형 무인기 간에 통신을 수행하여 상기 복수의 소형 무인기 각각의 위치 및 특성에 따라 상기 빔 파형을 가변시키는 단계
를 더 포함하는 대상체 탐지 방법.
The method of claim 20, wherein obtaining radar reception data for the object
Performing communication between the plurality of small UAVs and varying the beam waveform according to the positions and characteristics of each of the plurality of small UAVs
Object detection method further comprising a.
제18항에 있어서, 상기 대상체에 대한 영상을 생성하는 단계는,
상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하는 단계; 및
상기 대상체와 상기 클러터를 분류하여 상기 대상체에 대한 영상을 생성하는 단계
를 포함하는 대상체 탐지 방법.
The method of claim 18, wherein generating an image of the object comprises:
Processing the radar received data to identify the object and the clutter; And
Classifying the object and the clutter to generate an image of the object
Object detection method comprising a.
제23항에 있어서, 상기 레이더 수신 데이터를 처리하여 상기 대상체와 클러터를 식별하는 단계는,
상기 레이더 수신 데이터를 상기 대상체 및 상기 클러터를 분류하기 위한 인공지능 알고리즘에 적용하여, 상기 레이더 수신 데이터에 대한 특이점 식별 및 비교를 수행하고, 상기 특이점 식별 및 비교의 수행 결과에 기초하여 상기 대상체 및 상기 클러터를 분류하는 단계
를 포함하는 대상체 탐지 방법.
The method of claim 23, wherein the step of identifying the object and the clutter by processing the radar received data comprises:
Applying the radar received data to an artificial intelligence algorithm for classifying the object and the clutter, performing singular point identification and comparison on the radar received data, and based on the result of performing the singular point identification and comparison, the object and Classifying the clutter
Object detection method comprising a.
제24항에 있어서,
상기 탐지 시스템의 인공지능 서버에서, 상기 레이더 수신 데이터를 인공지능 학습에 이용하여 상기 인공지능 알고리즘을 갱신하는 단계; 및
상기 인공지능 서버에서, 상기 갱신된 인공지능 알고리즘을 상기 원격 처리부에 제공하는 단계
를 더 포함하고,
상기 인공지능 알고리즘은 특이점 식별 및 비교 알고리즘을 이용하여 상기 레이더 수신 데이터에 대한 상기 특이점 식별 및 비교를 수행하고, 상기 특이점 식별 및 비교의 수행 결과를 학습 알고리즘에 적용하여 갱신되는 대상체 탐지 방법.
The method of claim 24,
Updating the artificial intelligence algorithm by using the radar received data for artificial intelligence learning in the artificial intelligence server of the detection system; And
In the artificial intelligence server, providing the updated artificial intelligence algorithm to the remote processing unit
Including more,
The artificial intelligence algorithm performs the singular point identification and comparison of the radar received data using a singular point identification and comparison algorithm, and is updated by applying a result of the singular point identification and comparison to a learning algorithm.
KR1020200054846A 2020-05-08 2020-05-08 Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same KR102159197B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200054846A KR102159197B1 (en) 2020-05-08 2020-05-08 Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200054846A KR102159197B1 (en) 2020-05-08 2020-05-08 Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same

Publications (1)

Publication Number Publication Date
KR102159197B1 true KR102159197B1 (en) 2020-09-23

Family

ID=72708855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200054846A KR102159197B1 (en) 2020-05-08 2020-05-08 Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same

Country Status (1)

Country Link
KR (1) KR102159197B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979519A1 (en) * 2020-10-02 2022-04-06 Rockwell Collins, Inc. Automation of communication, navigation, surveillance, sensor and survivability system capabilities in primary, alternate, contingency, and emergency schemes for facilitating seamless command, control, communication, computer, cyber-defense, combat, intelligence, surveillance, and reconnaissance capabilities

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170134184A (en) * 2016-05-26 2017-12-06 더 보잉 컴파니 Unmanned aerial vehicle with deployable transmit/receive module apparatus with ramjet
KR20180043912A (en) * 2016-10-21 2018-05-02 주식회사 모두의연구소 System for cooperative anti-drone and method for cooperation control of anti-drones
KR20180128703A (en) * 2017-05-24 2018-12-04 (주)스마트모션 Apparatus of controlling drone and method of controlling formation flight using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170134184A (en) * 2016-05-26 2017-12-06 더 보잉 컴파니 Unmanned aerial vehicle with deployable transmit/receive module apparatus with ramjet
KR20180043912A (en) * 2016-10-21 2018-05-02 주식회사 모두의연구소 System for cooperative anti-drone and method for cooperation control of anti-drones
KR20180128703A (en) * 2017-05-24 2018-12-04 (주)스마트모션 Apparatus of controlling drone and method of controlling formation flight using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979519A1 (en) * 2020-10-02 2022-04-06 Rockwell Collins, Inc. Automation of communication, navigation, surveillance, sensor and survivability system capabilities in primary, alternate, contingency, and emergency schemes for facilitating seamless command, control, communication, computer, cyber-defense, combat, intelligence, surveillance, and reconnaissance capabilities

Similar Documents

Publication Publication Date Title
WO2019067695A1 (en) Flight control using computer vision
Khan et al. On the detection of unauthorized drones—Techniques and future perspectives: A review
WO2020102640A1 (en) Security event detection and threat assessment
US10649087B2 (en) Object detection system for mobile platforms
Dressel et al. Hunting drones with other drones: Tracking a moving radio target
GB2536043A (en) A counter-UAV system
JP7406655B2 (en) Aircraft acoustic-based detection and avoidance
CN112946651B (en) Air collaborative sensing system based on distributed SAR
US11578952B2 (en) Directional high-energy radio frequency weapon
WO2021180399A1 (en) Method for controlling a formation of a collaborating swarm of unmanned mobile units
CN110058233A (en) A kind of anti-duplicity interference method of multistatic SARS system
KR102159197B1 (en) Radar sensor payload for small uav, remote processing device, detection system and method of detecting target using the same
Zitar et al. A review of UAV visual detection and tracking methods
Lee et al. -10CNN-Based UAV Detection and Classification Using Sensor Fusion
Dogru et al. Tracking drones with drones using millimeter wave radar
CN115336137A (en) Wireless power transmission condition learning device, wireless power transmission condition determining device, wireless power transmitting device, and wireless power receiving device
RU2020121449A (en) Multifunctional complex of means of detection, tracking and radio countermeasures to the use of small unmanned aerial vehicles
US11754698B2 (en) Radar based system for processing radar data representing range and radial velocity of a detected object
Siewert et al. Comparison of RADAR, Passive Optical with Acoustic, and Fused Multi-Modal Active and Passive Sensing for UAS Traffic Management Compliance and Urban Air Mobility Safety
KR20150054644A (en) Apparatus and method for wireless identification
WO2022172217A1 (en) System and method for rogue drone detection and interception
Dianovský et al. The Ground Station for Long-Range Monitoring, Flight Control, And Operational Data Telemetry of Unmanned Aerial Vehicles
KR20190141941A (en) Detecting and neutralizing apparatus of flight vehicle capable of flying underground and method thereof
Shepherd et al. Microsensor applications
US20240248194A1 (en) Control system for targeting using bistatic radio wave localization

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant