KR20230157192A - Method, apparatus and system for intellignece shield using uav swarm - Google Patents

Method, apparatus and system for intellignece shield using uav swarm Download PDF

Info

Publication number
KR20230157192A
KR20230157192A KR1020220056914A KR20220056914A KR20230157192A KR 20230157192 A KR20230157192 A KR 20230157192A KR 1020220056914 A KR1020220056914 A KR 1020220056914A KR 20220056914 A KR20220056914 A KR 20220056914A KR 20230157192 A KR20230157192 A KR 20230157192A
Authority
KR
South Korea
Prior art keywords
target
unmanned aerial
swarm
defending
swarm unmanned
Prior art date
Application number
KR1020220056914A
Other languages
Korean (ko)
Inventor
문정호
조성욱
김상현
Original Assignee
청주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 청주대학교 산학협력단 filed Critical 청주대학교 산학협력단
Priority to KR1020220056914A priority Critical patent/KR20230157192A/en
Publication of KR20230157192A publication Critical patent/KR20230157192A/en

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/15UAVs specially adapted for particular uses or applications for conventional or electronic warfare
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

군집 무인비행체 이용 지능형 방어 방법, 장치 및 시스템이 개시된다. 상기 본 발명의 일 실시 예에 따른 전자장치에 의해, 군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물 방어 방법은, 타깃에 대해 획득된 정보를 수신하는 단계; 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하는 단계; 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하는 단계; 및 생성된 군집 무인비행체 대응 방어 제어 정보를 전송하는 단계를 포함한다.An intelligent defense method, device, and system using swarm unmanned aerial vehicles are disclosed. A method of protecting an object using a swarm unmanned aerial vehicle using an electronic device according to an embodiment of the present invention includes receiving information obtained about a target; Recognizing the target from target information received through a predefined algorithm and estimating relative motion information for the recognized target; Generating corresponding defense control information of a swarm unmanned aerial vehicle for defending the object based on relative motion information estimated with respect to the recognition target; and transmitting the generated swarm unmanned aerial vehicle response defense control information.

Description

군집 무인비행체 이용 지능형 방어 방법, 장치 및 시스템{METHOD, APPARATUS AND SYSTEM FOR INTELLIGNECE SHIELD USING UAV SWARM}Intelligent defense method, device and system using swarm unmanned aerial vehicle {METHOD, APPARATUS AND SYSTEM FOR INTELLIGNECE SHIELD USING UAV SWARM}

본 발명은 무인비행체를 이용한 방어 기술에 관한 것으로, 보다 상세하게는 군집 무인비행체를 이용하여 타깃으로부터 대상물에 대한 지능형 방어 방법, 장치 및 시스템에 관한 것이다.The present invention relates to defense technology using unmanned aerial vehicles, and more specifically, to intelligent defense methods, devices, and systems for objects from targets using swarm unmanned aerial vehicles.

전쟁을 치르는 방식 내지 전투의 양상은 계속하여 변해가고 있다. 특히, 최근에는 소형 드론을 이용한 다양한 공격 방법이 개발되고 있는데, 이는 상대적으로 드론의 제작 비용이 저렴하기에 테러 집단이나 군사용 목적으로도 활용되고 있는 실정이다.The way war is fought and the aspects of battle continue to change. In particular, various attack methods using small drones have been developed recently, and since the production cost of drones is relatively low, they are also used by terrorist groups and for military purposes.

한편, 이러한 소형 드론을 이용한 공격에 대해, 기존 무기체계로는 방어가 쉽지 않고, 가능하더라도 상대적으로 고가의 무기 체계 시스템상 가성비가 떨어진다.On the other hand, it is not easy to defend against attacks using such small drones with existing weapon systems, and even if possible, the cost-effectiveness is low due to the relatively expensive weapon system.

이에 상기와 같은 상황을 해결하고자 드론 방어 시스템으로는 통신 재머(jammer)를 이용한 방법이 연구되고 있다. 그러나 이 방식은 일반적으로 표준 통신 방식을 사용하는 상용 드론에 대응해서는 방어가 가능하나 소프트웨어가 수정되었거나 표준 통신 방식을 사용하지 않도록 자체 개발된 공격형 드론에 대해서는 방어할 수 없는 문제점이 있었다.Accordingly, in order to solve the above situation, a method using a communication jammer is being studied as a drone defense system. However, although this method can generally defend against commercial drones that use standard communication methods, it has the problem of not being able to defend against attack drones that have modified software or were developed in-house to not use standard communication methods.

이에 따라, 경제적이면서도 이동과 유지 보수가 간편한 소형 드론을 이용하여 군함이나 주요 군사시설 등을 보호할 수 있는 물리적 방어 시스템에 대한 개발이 요구되고 있다.Accordingly, there is a demand for the development of a physical defense system that can protect warships or major military facilities using small drones that are economical and easy to move and maintain.

(0001) 한국 등록특허공보 제10-1895343호 (등록일: 2018.08.30)(0001) Korean Patent Publication No. 10-1895343 (Registration date: 2018.08.30) (0002) 한국 등록특허공보 제10-2281804호 (등록일: 2021.07.20)(0002) Korean Patent Publication No. 10-2281804 (Registration date: 2021.07.20)

본 발명의 일 과제는, 군집 무인비행체를 이용하여 타깃으로부터 대상물에 대한 지능형 방어 방법, 장치 및 시스템을 제공하는 것이다.One object of the present invention is to provide an intelligent defense method, device, and system for an object from a target using a swarm of unmanned aerial vehicles.

본 발명의 다른 일 과제는, 인공지능 기술을 활용하여 타깃으로부터 대상물을 방어 동작을 자동으로 수행하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method of automatically performing an operation to defend an object from a target using artificial intelligence technology.

본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the above technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 문제점을 해결하기 위한 본 발명의 일 실시 예에 따른 전자장치에 의해, 군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물 방어 방법은, 타깃에 대해 획득된 정보를 수신하는 단계; 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하는 단계; 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하는 단계; 및 생성된 군집 무인비행체 대응 방어 제어 정보를 전송하는 단계를 포함한다.A method of defending an object using a swarm unmanned aerial vehicle using an electronic device according to an embodiment of the present invention to solve the above-described problem includes receiving information obtained about a target; Recognizing the target from target information received through a predefined algorithm and estimating relative motion information for the recognized target; Generating corresponding defense control information of a swarm unmanned aerial vehicle for defending the object based on relative motion information estimated with respect to the recognition target; and transmitting the generated swarm unmanned aerial vehicle response defense control information.

본 발명의 일 실시 예에 따르면, 상기 군집 무인비행체 대응 방어 제어 정보에는, 상기 군집 무인비행체 각각 또는 그룹 단위에서의 정렬 및 비행에 관한 제1 제어 정보가 포함될 수 있다.According to an embodiment of the present invention, the swarm unmanned aerial vehicle response defense control information may include first control information regarding the alignment and flight of each or group of the swarm unmanned aerial vehicle.

본 발명의 일 실시 예에 따르면, 상기 군집 무인비행체 대응 방어 제어 정보에는, 상기 타깃에 대한 대응에 관한 제2 제어 정보가 포함될 수 있다.According to an embodiment of the present invention, the swarm unmanned aerial vehicle response defense control information may include second control information regarding response to the target.

본 발명의 일 실시 예에 따르면, 상기 제2 제어 정보에는, 상기 타깃에 대해 추정한 상대운동 정보에 기초하여 고속 이동 및 충돌 제어 정보 및 상기 타깃과의 거리가 미리 정한 범위 이내인 경우 상기 군집 무인비행체의 자폭 및 산탄화 제어 정보가 포함될 수 있다.According to an embodiment of the present invention, the second control information includes high-speed movement and collision control information based on relative motion information estimated for the target, and the swarm unmanned aerial vehicle when the distance to the target is within a predetermined range. Self-destruction and carbonation control information of the aircraft may be included.

본 발명의 일 실시 예에 따르면, 상기 타깃에는, 적어도 하나의 무인비행체가 포함될 수 있다.According to an embodiment of the present invention, the target may include at least one unmanned aerial vehicle.

본 발명의 일 실시 예에 따르면, 상기 수신된 타깃에 대해 획득된 정보에는, 군집을 형성하는 개별 무인비행체에 탑재된 센서모듈에 의해 획득된 이미지 데이터가 포함될 수 있다.According to an embodiment of the present invention, the information acquired about the received target may include image data acquired by a sensor module mounted on an individual unmanned aerial vehicle forming a swarm.

본 발명의 일 실시 예에 따르면, 상기 센서모듈에는 카메라를 포함한 이미지 센서, 라이다 센서 및 레이다 센서 중 적어도 하나 이상이 포함될 수 있다.According to an embodiment of the present invention, the sensor module may include at least one of an image sensor including a camera, a lidar sensor, and a radar sensor.

본 발명의 일 실시 예에 따르면, 상기 미리 정의된 알고리즘에는, 딥러닝 기법의 CNN이 포함될 수 있다.According to an embodiment of the present invention, the predefined algorithm may include a CNN of a deep learning technique.

본 발명의 일 실시 예에 따른 군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물을 방어하는 장치는, 메모리; 및 프로세서를 포함하되, 상기 프로세서는, 타깃에 대해 획득된 정보를 수신하여, 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하고, 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하여 전송한다.An apparatus for defending an object using a swarm unmanned aerial vehicle according to an embodiment of the present invention includes: a memory; and a processor, wherein the processor receives information obtained about a target, recognizes the target from the target information received through a predefined algorithm, estimates relative motion information for the recognized target, and recognizes the target. Based on the relative motion information estimated for the target, response defense control information of the swarm unmanned aerial vehicle for defending the object is generated and transmitted.

본 발명의 일 실시 예에 따른 군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물을 방어하는 시스템은, 타깃에 대해 정보를 획득하는 센서모듈을 포함하고 군집을 형성하는 드론들; 및 메모리와 프로세서를 포함한 통제시스템을 포함하되, 상기 프로세서는, 상기 타깃에 대해 획득된 정보를 수신하여, 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하고, 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하여 전송한다.A system for defending an object using a swarm unmanned aerial vehicle according to an embodiment of the present invention includes drones that include a sensor module that acquires information about the target and form a swarm; and a control system including a memory and a processor, wherein the processor receives information obtained about the target, recognizes the target from the target information received through a predefined algorithm, and responds to the recognized target. Motion information is estimated, and response defense control information of the swarm unmanned aerial vehicle for defending the object is generated and transmitted based on the relative motion information estimated for the recognition target.

본 발명의 다양한 실시예에 따르면, 다음과 같은 효과가 제공될 수 있다.According to various embodiments of the present invention, the following effects can be provided.

본 발명에 따르면, 군집 무인비행체 이용 지능형 방어 방법, 장치 및 시스템을 제공할 수 있는 효과가 있다.According to the present invention, it is possible to provide an intelligent defense method, device, and system using swarm unmanned aerial vehicles.

본 발명에 따르면, 인공지능 기술을 활용하여 자동으로 무인화된 군집 드론을 제어하여 대상물을 안전하게 방어할 수 있는 효과가 있다.According to the present invention, it is possible to safely defend an object by automatically controlling unmanned swarm drones using artificial intelligence technology.

다만, 본 발명을 통해 얻을 수 있는 효과는 이에 제한되지 않는다.However, the effects that can be achieved through the present invention are not limited to this.

도 1은 본 발명의 일 실시 예에 따른 군집 드론을 이용한 지능형 방어 시스템을 설명하기 위해 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 개별 군집 드론의 구성 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 통제시스템의 구성 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 지능형 방어 방법을 설명하기 위해 도시한 순서도이다.
도 5는 본 발명의 일 실시 예에 따른 개별 드론의 동작을 설명하기 위해 도시한 도면이다.
도 6은 본 발명의 일 실시 예에 따라 군집 드론을 이용하여 타깃으로부터 대상물의 방어 동작을 설명하기 위해 도시한 도면이다.
Figure 1 is a diagram illustrating an intelligent defense system using swarm drones according to an embodiment of the present invention.
Figure 2 is a block diagram of an individual swarm drone according to an embodiment of the present invention.
Figure 3 is a block diagram of a control system according to an embodiment of the present invention.
Figure 4 is a flow chart illustrating an intelligent defense method according to an embodiment of the present invention.
Figure 5 is a diagram illustrating the operation of an individual drone according to an embodiment of the present invention.
Figure 6 is a diagram illustrating an operation to defend an object from a target using a swarm of drones according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에서, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하 본 명세서에서는 본 발명에 따라 무인비행체(Unmanned Aerial Vehicle)를 이용하여 타깃으로부터 대상물 방어 방법에 대한 다양한 실시예를 개시한다.Hereinafter, various embodiments of a method for protecting an object from a target using an unmanned aerial vehicle according to the present invention are disclosed.

이 때, 상기 "무인비행체"라 함은, 사람이 직접 탑승하여 조종하지 않는 비행체를 통칭하는 것으로 예를 들어, 드론(drone)이 이에 해당한다. 이 때, 이러한 무인비행체에는 반드시 원격에서 사람에 의해 조종되어야만 하는 것은 아니고 다양한 제어 프로그램 등 소프트웨어에 따라 스스로 움직이는 비행체도 포함될 수 있다. 한편, 본 발명에서는 설명의 편의상 무인비행체는 드론을 특히, 군집 제어를 받는 드론(이하, '군집 드론'이라 함)을 예로 하여 설명한다. 다만, 본 발명이 반드시 이에만 한정되는 것은 아니다.At this time, the term “unmanned aerial vehicle” refers to an aircraft that is not directly boarded and controlled by a person, and includes, for example, a drone. At this time, such unmanned aerial vehicles do not necessarily have to be remotely controlled by humans, but may also include flying vehicles that move on their own according to software such as various control programs. Meanwhile, in the present invention, for convenience of explanation, the unmanned air vehicle will be described by taking drones, particularly drones under swarm control (hereinafter referred to as 'swarm drones'), as an example. However, the present invention is not necessarily limited to this.

그리고 상기 "대상물"이라 함은, 외부로부터의 침입, 공격 등에 대한 방어의 대상이 물체를 의미하는 것으로, 이러한 대상물에는 시설물(facilities), 차량(vehicle), 함정(ship) 등이 포함될 수 있다.The term “object” refers to an object that is the object of defense against intrusion or attack from the outside, and such objects may include facilities, vehicles, ships, etc.

또한, 상기 "타깃(target)"이라 함은 상기 대상물에 대한 침입, 공격 등의 목적으로 외부로부터 상기 대상물 방향 또는 미리 설정된 영역으로 진입 또는 접근하는 모든 형태의 물체를 나타낼 수 있다. 이러한 타깃에는 무인비행체, 미사일 등이 포함될 수 있으나, 설명의 편의상 타깃은 상기 무인비행체 즉, 드론을 예시하여 설명한다. 다만, 본 발명이 이에 한정되는 것은 아니다. 한편, 타깃은 반드시 1개일 필요는 없다.Additionally, the term “target” may refer to any type of object that enters or approaches the object or a preset area from the outside for the purpose of intruding or attacking the object. These targets may include unmanned aerial vehicles, missiles, etc., but for convenience of explanation, the unmanned aerial vehicle, that is, a drone, is used as an example for explanation. However, the present invention is not limited to this. Meanwhile, the target does not necessarily have to be one.

또한, 상기 "방어"라 함은 상기 대상물을 외부의 어떤 침입, 공격 등으로부터 보호하는 것을 의미하며, 이러한 방어에는 타깃 격추나 파괴뿐만 아니라 접근 방해, 소정 영역으로부터 이탈 등 타깃의 목적된 역할 수행이 불가하거나 어렵도록 하는 모든 행위 내지 동작을 나타낼 수 있다.In addition, the term "defense" means protecting the object from any external intrusion, attack, etc., and such defense includes not only shooting down or destroying the target, but also performing the target's intended role, such as impeding access or leaving a predetermined area. It can refer to any action or action that is impossible or difficult.

한편, 드론과 같은 무인비행체는 종래 기 공지되어 있는 장치나 기술을 그대로 이용할 수 있는바, 이에 대한 별도 상세 설명은 생략함을 미리 밝혀둔다.Meanwhile, it should be noted in advance that unmanned aerial vehicles such as drones can use conventionally known devices or technologies, and a separate detailed explanation thereof will be omitted.

도 1은 본 발명의 일 실시 예에 따른 군집 드론(110)을 이용한 지능형 방어 시스템(이하, '지능형 방어 시스템'이라 함)을 설명하기 위해 도시한 도면이다.Figure 1 is a diagram illustrating an intelligent defense system (hereinafter referred to as 'intelligent defense system') using swarm drones 110 according to an embodiment of the present invention.

지능형 방어 시스템은 군집 드론(110)과 통제시스템(120)을 포함하여 구성될 수 있다.The intelligent defense system may be comprised of a swarm drone 110 and a control system 120.

실시 예에 따라, 상기 지능형 방어 시스템은 도 1에 도시된 상기 구성 외에 하나 또는 그 이상의 구성을 더 포함할 수 있다. 예를 들어, 상기 지능형 방어 시스템에 도 1에 도시된 구성들 사이의 데이터, 제어 커맨드 등 다양한 데이터 커뮤니케이션을 지원하거나 수행하는 통신 네트워크, 중계기, 위성 등 중 적어도 하나가 더 포함될 수 있다. Depending on the embodiment, the intelligent defense system may further include one or more components in addition to the configuration shown in FIG. 1. For example, the intelligent defense system may further include at least one of a communication network, a repeater, a satellite, etc. that supports or performs various data communications such as data and control commands between the components shown in FIG. 1.

군집 드론(110)은 외부에서 대상물이나 대상물 주변에 미리 설정된 영역(이하, 편의상 '대상물')로 접근하는 타깃에 대한 이미지 데이터를 수집 또는 획득(이하 '획득'이라 함)할 수 있다. The swarm drone 110 may collect or acquire (hereinafter referred to as 'acquisition') image data about a target approaching from the outside to an object or a preset area around the object (hereinafter, 'object' for convenience).

군집 드론(110)에 속한 개별 드론 또는 그 중 적어도 일부는 상기 획득된 이미지 데이터에 관한 처리를 위한 컴퓨터와 같은 연산장치를 탑재할 수 있다. Individual drones or at least some of them belonging to the swarm drone 110 may be equipped with a computing device such as a computer for processing the acquired image data.

실시 예에 따라, 군집 드론(110)은 상기 획득된 로우 이미지 데이터(raw image data)를 직접 처리하지 않고 통제시스템(120)으로 바로 전송할 수도 있다.Depending on the embodiment, the swarm drone 110 may directly transmit the acquired raw image data to the control system 120 without directly processing it.

상기에서, 처리된 이미지 데이터 또는 로우 이미지 데이터는, 군집을 형성하는 개별 드론에서 직접 통제시스템(120)으로 전송할 수도 있고 그렇지 않을 수도 있다. 후자의 경우, 군집 내 각 드론은 해당 드론이 속한 그룹의 지휘 드론 또는 리더 드론(commander drone or leader drone)으로 이미지 데이터를 전송하고, 상기 지휘 드론에서 이를 통합하여 통제시스템(120)으로 전송할 수 있다. 이 때, 상기 지휘 드론은 타임스탬프(time stamp)와 같은 시간 동기에 따라 이미지 데이터를 통합 또는 1차 처리하여 식별자를 부여한 후에 통제시스템(120)으로 전송할 수 있다. 유사한 방식으로, 지휘 드론은 개별 드론에 부여된 식별자(Identifier)를 참조하여 이미지 프레임(image frame)의 바디(body)에 포함된 이미지 데이터의 소스나 출처를 식별 가능하도록 해당 이미지 프레임의 헤더(header)에 해당 드론의 식별자, 위치 정보 등에 대한 정보를 포함한 후에 통제시스템(120)에 전송할 수도 있다.In the above, the processed image data or raw image data may or may not be transmitted directly to the control system 120 from the individual drones forming the swarm. In the latter case, each drone in the swarm transmits image data to the command drone or leader drone of the group to which the drone belongs, and the command drone can integrate it and transmit it to the control system 120. . At this time, the command drone may integrate or primary process the image data according to time synchronization such as a time stamp, assign an identifier, and transmit it to the control system 120. In a similar manner, the command drone refers to the identifier assigned to each individual drone to identify the source or origin of the image data contained in the body of the image frame. ) may include information about the drone's identifier and location information and then transmit it to the control system 120.

그 밖에, 군집 드론(110)에 속한 개별 드론 또는 그 중 적어도 일부는 통제시스템(120) 또는 미리 지정된 지휘 드론과의 데이터 송수신을 위한 통신부, 메모리(memory) 등 하드웨어 장치를 더 구비할 수 있다.In addition, individual drones belonging to the swarm drone 110 or at least some of them may be further equipped with hardware devices such as a communication unit and memory for data transmission and reception with the control system 120 or a pre-designated command drone.

실시 예에 따라, 군집 드론(110)에 속한 개별 드론 또는 그 중 적어도 일부는 본 발명에 따른 대응 방어 제어 정보에 따른 물리적 방어 방법을 위해 필요한 하드웨어 장치를 더 구비할 수 있다. 상기에서, 물리적 방어 방법이라 함은 대상물의 방어를 위해 타깃 예를 들어, 하피(Harpy)와 같은 레이더 자폭 공격기, 직충돌형 공격, 저속 순항 미사일 등에 대한 물리적인 대응을 위한 Depending on the embodiment, individual drones or at least some of them belonging to the swarm drone 110 may be further equipped with hardware devices necessary for a physical defense method according to the corresponding defense control information according to the present invention. In the above, the physical defense method refers to a physical response to a target, such as a radar self-destruction attack aircraft such as the Harpy, a direct impact attack, a low-speed cruise missile, etc., for the defense of an object.

군집 드론(110)은 n(여기서, n은 자연수)개의 드론 또는 n*m(여기서, n과 m은 자연수)개의 드론들을 포함한 것으로, 일반적으로 상기 n 및/또는 m은 적어도 2이상이되, 군집을 통한 대상물 방어의 효과를 최소한으로 보장하면서 운용비를 고려하여 적절히 결정될 수 있다. 이러한 관점에서 상기 n 또는 m은 전방위를 고려하여 적어도 4 이상인 것이 바람직하되, 특정 시점에는 1일 수도 있다.The swarm drone 110 includes n (where n is a natural number) drones or n * m (where n and m are natural numbers) drones. Generally, n and/or m are at least 2, but the swarm It can be appropriately determined considering operating costs while ensuring the minimum effectiveness of object defense through . From this point of view, it is preferable that n or m is at least 4 considering all directions, but may be 1 at a specific point in time.

한편, 군집 드론(110)은 운용 시점 내지 방식에 따라 시점에 따라 제어 대상이 되는 개수가 달라질 수 있다. 예를 들어, 타깃 인식 전과 같은 평시 모드에서 운용되는 드론의 개수와 타깃 인식 및 추정 결과에 기초한 방어 모드에서 운용되는 드론의 개수는 다를 수 있다.Meanwhile, the number of swarm drones 110 subject to control may vary depending on the time or method of operation. For example, the number of drones operated in peacetime mode, such as before target recognition, and the number of drones operated in defense mode based on target recognition and estimation results may be different.

전술한 바와 같이, 군집 드론(110)는 다양한 기준에 따라 적어도 2개 이상의 드론이 그룹핑되어 그룹 제어될 수도 있고, 적어도 하나의 커맨드 드론과 다수의 동작 드론으로 구분되어 제어될 수 있다. 후자의 경우, 상기 적어도 하나의 커맨드 드론은 직접 통제시스템(120)과 데이터 커뮤니케이션을 수행하며, 그에 소속된 개별 드론에 대한 제어를 수행할 수도 있다.As described above, the swarm drone 110 may be controlled by grouping at least two or more drones according to various criteria, or may be controlled by dividing them into at least one command drone and a plurality of operation drones. In the latter case, the at least one command drone directly performs data communication with the control system 120 and may also control individual drones belonging to it.

통제시스템(120)은 상기 군집 드론(110)으로부터 타깃에 대한 이미지 데이터를 수신하고, 수신된 이미지 데이터를 분석하여 타깃을 인식하고, 인식된 타깃의 상대운동정보를 추정할 수 있다. 상기 분석 과정에서 통제시스템(120)은 인공지능(Artificial Intelligence) 기술 특히, 딥러닝(deep learning) 기술을 이용할 수 있다. 실시 예에 따라, 타깃에 대한 이미지 데이터는 군집 드론(110) 외 다른 센서장치 등을 통해서 수집될 수도 있다. 상기 다른 센서장치에는 예를 들어, 라이다(Lidar) 센서, 레이다(Radar) 센서 등이 포함될 수 있다.The control system 120 may receive image data about the target from the swarm drone 110, recognize the target by analyzing the received image data, and estimate relative motion information of the recognized target. In the above analysis process, the control system 120 may use artificial intelligence technology, especially deep learning technology. Depending on the embodiment, image data about the target may be collected through a sensor device other than the swarm drone 110. The other sensor devices may include, for example, a Lidar sensor, a radar sensor, etc.

통제시스템(120)은 인식된 타깃에 대해 추정된 상대운동정보에 기초하여 대상물 방어를 위한 군집 드론(110)의 대응 방어 제어 정보를 생성하고, 생성된 대응 방어 제어 정보를 전송할 수 있다. The control system 120 may generate response defense control information of the swarm drones 110 for object defense based on the relative motion information estimated for the recognized target and transmit the generated response defense control information.

상기 전송 방식에는 브로드캐스트(broadcast) 방식, 군집 내 적어도 하나의 지휘 드론에만 전송하는 방식, 군집 내 개별 드론에 직접 전송하는 방식 등이 포함될 수 있다.The transmission method may include a broadcast method, a method of transmitting only to at least one command drone in the swarm, and a method of transmitting directly to individual drones in the swarm.

통제시스템(120)은 반드시 1개일 필요는 없으며, 복수 개 존재할 수 있다. 후자의 경우, 각 통제시스템이 모두 동일한 구성을 가질 수 있다. 실시 예에 따라, 상기 각 통제시스템은 유닛(unit) 단위로 할당된 임무 내지 역할에 따라 서로 다른 구성을 가질 수도 있다.The control system 120 does not necessarily need to be one, and may exist in plural. In the latter case, each control system may all have the same configuration. Depending on the embodiment, each control system may have a different configuration depending on the mission or role assigned to each unit.

한편, 통제시스템(120)은 통상 지상에 위치할 수 있으나, 반드시 이에 한정되는 것은 아니다. 즉, 통제시스템(120)은 지하나 공중에 위치할 수도 있고, 방어 대상물(미도시)에 따라 그 위치가 달라질 수도 있다. 예컨대, 방어 대상물이 함정이라면 통제시스템(120)은 상기 함정상에 위치할 수도 있다. Meanwhile, the control system 120 may usually be located on the ground, but is not necessarily limited thereto. That is, the control system 120 may be located underground or in the air, and its location may vary depending on the defense object (not shown). For example, if the object of defense is a trap, the control system 120 may be located on the ship.

통제시스템(120)은 방어 대상물 내부나 주변에 위치하거나 원격에 위치할 수도 있다. 그 밖에, 통제시스템(120)은 무인으로 운용될 수도 있다.The control system 120 may be located within or around the defense object, or may be located remotely. Additionally, the control system 120 may be operated unmanned.

도 2는 본 발명의 일 실시 예에 따른 군집 형성 개별 드론의 구성 블록도이다.Figure 2 is a block diagram of individual drones forming a swarm according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시 예에 따른 군집을 형성하는 개별 드론은 크게 프로세서와 메모리(250)로 구분할 수 있으며, 상기 프로세서는 통신부(210), 센서부(220), 연산부(230) 및 제어부(240)를 포함한다. Referring to FIG. 2, individual drones forming a swarm according to an embodiment of the present invention can be broadly divided into a processor and a memory 250, and the processor includes a communication unit 210, a sensor unit 220, and a calculation unit 230. ) and a control unit 240.

이 때, 전술한 바와 같이, 실시 예에 따라 후술하는 연산부(230)의 기능이 통제시스템(120)에서 수행되는 경우에는 생략될 수도 있다.At this time, as described above, when the function of the calculation unit 230, which will be described later depending on the embodiment, is performed in the control system 120, it may be omitted.

또한, 군집을 형성하는 각 드론의 구성은 모두 동일하지 않을 수도 있다. 예를 들어, 지휘 드론과 지휘를 받는 드론의 구성은 상이할 수 있다.Additionally, the composition of each drone forming a swarm may not all be the same. For example, the configuration of the command drone and the drone being commanded may be different.

통신부(210)는 통제시스템(120), 군집을 형성하는 타 드론 등과의 통신을 통한 데이터 커뮤니케이션을 지원하고, 각종 데이터를 주고받을 수 있다.The communication unit 210 supports data communication through communication with the control system 120 and other drones forming a swarm, and can exchange various data.

센서부(220)는 대상물에 접근하는 잠재 타깃에 대한 이미지 데이터를 획득할 수 있다. 이 때, 상기 센서부(220)는 카메라 센서와 같은 이미지 센서, 라이다 센서, 레이다 센서 등 중 적어도 하나를 포함하여 구성될 수 있다. The sensor unit 220 may acquire image data about a potential target approaching an object. At this time, the sensor unit 220 may be configured to include at least one of an image sensor such as a camera sensor, a lidar sensor, and a radar sensor.

한편, 본 발명에 따르면, 군집을 형성하는 개별 드론에 포함된 센서부(220)의 구성은 서로 다를 수 있다. 예를 들어, 제1 드론의 센서부에는 이미지 센서가, 제n-1 드론의 센서부에는 라이다 센서가, 그리고 제n 드론의 센서부에는 레이다 센서가 포함될 수 있다. 상기에서, n은 자연수이다.Meanwhile, according to the present invention, the configuration of the sensor unit 220 included in individual drones forming a swarm may be different from each other. For example, the sensor unit of the first drone may include an image sensor, the sensor unit of the n-1th drone may include a lidar sensor, and the sensor unit of the nth drone may include a radar sensor. In the above, n is a natural number.

즉, 하나의 드론이 모든 센서를 다 포함하여 센서부를 구성할 수도 있고, 그 중 일부만 또는 어느 하나의 센서만을 채택하여 포함할 수도 있다. 이러한 이유로, 센서부의 구성에 따라 센싱된 데이터의 처리 주체 즉, 해당 드론 또는 통제시스템(120)가 결정될 수도 있다.In other words, one drone may include all sensors to form a sensor unit, or it may include only some of them or only one sensor. For this reason, the subject that processes the sensed data, that is, the drone or control system 120, may be determined depending on the configuration of the sensor unit.

본 명세서에서 기술되는 이미지 데이터에는, 정지스틸 이미지 데이터뿐만 아니라 동영상 데이터도 포함될 수 있다.Image data described herein may include moving image data as well as still image data.

군집을 형성하는 드론들 중 미리 정한 개수(예를 들어, 적어도 하나의 드론)의 드론(들)의 센서부(220)에서 센싱한 이미지 데이터로부터 유의미한 데이터가 센싱된 경우에는, 그렇게 센싱된 이미지 데이터에 대하여 처리된 결과에 기초하여 타 드론의 센서부(220)의 센싱이 제어될 수 있다. If meaningful data is sensed from the image data sensed by the sensor unit 220 of a predetermined number (e.g., at least one drone) of drones forming a group, the so sensed image data Based on the processed results, sensing of the sensor unit 220 of another drone may be controlled.

반대로, 특정 시점에 군집을 형성하는 드론들 중 미리 정한 개수의 드론(들)의 센서부를 통해 센싱한 이미지 데이터로부터 유의미한 데이터가 센싱되지 않은 경우에는, 해당 각 드론으로부터 센싱된 데이터는 무시(ignore)되어 후처리가 되지 않을 수도 있다. 상기 후처리는 해당 각 드론 또는 통제시스템(120)에서의 처리를 나타낼 수 있다.Conversely, if no meaningful data is sensed from the image data sensed through the sensor unit of a predetermined number of drones among the drones forming a cluster at a specific time, the data sensed from each drone is ignored. Therefore, post-processing may not be possible. The post-processing may represent processing in each drone or control system 120.

한편, 상기 센서부(220)는 상기한 타깃에 대한 이미지 데이터 획득을 위한 센서 외에 추가로 하나 또는 그 이상의 다른 센서들도 포함할 수 있다. 예를 들어, 상기 추가 센서에는 열화상 센서, 적외선 센서 등이 포함될 수 있다.Meanwhile, the sensor unit 220 may include one or more other sensors in addition to the sensor for acquiring image data for the target. For example, the additional sensor may include a thermal image sensor, an infrared sensor, etc.

연산부(230)는 획득된 이미지 데이터에 대한 연산 처리를 담당하는 것으로, 컴퓨터 등이 포함될 수 있다.The calculation unit 230 is responsible for processing the acquired image data and may include a computer, etc.

이 때, 상기 연산 처리에는 획득된 이미지 데이터로부터 타깃을 인식(또는 식별)을 위한 연산 동작이 포함될 수 있다. 한편, 상기 타깃 인식과 관련하여, 인공지능 객체인식 기술이 이용될 수 있다. 즉, 연산부(230)는 머신러닝 또는 딥러닝 인공지능 객체인식 알고리즘이 탑재된 모듈을 포함하여, 상기 획득된 이미지 데이터로부터 타깃을 인식할 수 있다. 본 발명에서는 편의상 딥러닝 알고리즘을 이용하되, 그 중에서 컨벌루션 뉴럴 네트워크(CNN: Convolution Neural Network)을 이용하는 것을 일 실시 예로 하나, 이에 한정되는 것은 아니다.At this time, the calculation process may include a calculation operation for recognizing (or identifying) the target from the acquired image data. Meanwhile, in relation to the target recognition, artificial intelligence object recognition technology may be used. That is, the calculation unit 230 includes a module equipped with a machine learning or deep learning artificial intelligence object recognition algorithm and can recognize the target from the acquired image data. In the present invention, for convenience, a deep learning algorithm is used, and among them, a convolution neural network (CNN) is used as an example, but is not limited thereto.

예를 들어, 연산부(230)는 딥러닝의 방법으로 컨볼루션 신경망(Convolution Neural Network)의 SSD(Single-shot Multibox Detection)를 이용할 수 있으며, 획득된 이미지를 영역별로 분류하여, 영역별로 상기 SSD 기법을 이용하여 분류함으로써, 빠르게 타깃이 존재하는 관심영역(ROI: Region of Interest)을 검출할 수 있다.For example, the calculation unit 230 may use the SSD (Single-shot Multibox Detection) of a convolution neural network as a deep learning method, classify the acquired image by region, and use the SSD technique for each region. By classifying using , you can quickly detect the region of interest (ROI) where the target exists.

실시 예에 따라, 연산부(230)는 딥러닝 방법으로 컨볼루션 신경망(Convolution Neural Network)의 의미론적 분할(Semantic Segmentation) 방법을 이용할 수 있으며, 이를 통해 획득된 이미지 데이터를 픽셀 단위로 판단하여 타깃으로 판단할 수 있는 부분 여부를 판단할 수 있다. 상기 의미론적 분할은 픽셀 단위로 판단하기 때문에, 검출 속도는 떨어질 수 있으나, 상기 영역별 검출 방식인 SSD에 비해 정확도는 상대적으로 높다. 그러므로, 연산부(230)는 검출된 관심영역들에 대해 의미론적 분할을 이용하여, 각 픽셀 단위로 잠재 타깃 부분에 대한 관심 영역들만 검출할 수 있다.Depending on the embodiment, the calculation unit 230 may use the semantic segmentation method of a convolution neural network as a deep learning method, and determine the image data obtained through this on a pixel basis and use it as a target. You can decide whether it is something that can be judged or not. Since the semantic segmentation is determined on a pixel basis, the detection speed may be low, but the accuracy is relatively high compared to SSD, which is a region-specific detection method. Therefore, the calculation unit 230 can use semantic segmentation on the detected regions of interest to detect only the regions of interest for the potential target portion on a per-pixel basis.

실시 예에 따라, 연산부(230)는 상기 검출된 관심영역들을 상세히 분석하여 타깃을 인식할 수 있다. 연산부(230)도 딥러닝 방법으로 컨볼루션 신경망(CNN)의 다중 레이블 분류(Multi-Label Classification) 방법을 이용하여 상기 타깃을 인식할 수 있다.Depending on the embodiment, the calculation unit 230 may recognize the target by analyzing the detected regions of interest in detail. The calculation unit 230 can also recognize the target using a multi-label classification method of a convolutional neural network (CNN) as a deep learning method.

상기 연산부(230)는 획득된 이미지 데이터로부터 인식된 타깃의 상대운동추정 정보 획득을 위한 연산 동작을 수행할 수 있다.The calculation unit 230 may perform an operation to obtain relative motion estimation information of a target recognized from acquired image data.

이 때, 상기 연산부(230)는 인식 타깃의 상대운동 추정을 위하여 메모리(250)에 미리 저장된 객체의 상대운동 추정에 관한 알고리즘을 독출하여 이용할 수 있다. 상기 메모리(250)에는 적어도 하나 이상의 상대운동 추정 알고리즘이 저장되어 있을 수 있다. 상기 연산부(230)는 기 인식된 타깃의 타입, 타깃의 속도 등에 기초하여 적절한 상대운동 추정 알고리즘을 선택하여 이용함으로써, 타깃에 대한 상대운동 추정을 연산할 수 있다. 예를 들어, 타깃이 드론과 같은 저속 비행체로 인식된 경우에는 저속 타깃의 상대운동 추정 알고리즘을 이용할 수 있다. 한편, 본 발명에서는 기 공지되거나 추후 개발될 객체의 상대운동 추정을 위한 알고리즘을 참고하거나 이용할 수 있으며, 이에 대한 상세한 설명은 생략한다.At this time, the calculation unit 230 may read and use an algorithm for estimating the relative motion of an object previously stored in the memory 250 to estimate the relative motion of the recognition target. At least one relative motion estimation algorithm may be stored in the memory 250. The calculation unit 230 can calculate relative motion estimation for the target by selecting and using an appropriate relative motion estimation algorithm based on the previously recognized target type, target speed, etc. For example, if the target is recognized as a low-speed aircraft such as a drone, the relative motion estimation algorithm of the low-speed target can be used. Meanwhile, in the present invention, algorithms for estimating relative motion of objects that are known or developed in the future can be referred to or used, and a detailed description thereof will be omitted.

이러한 연산부(230)의 동작은 후술하는 제어부(240)에서 적어도 일부가 수행될 수 있다.At least part of the operation of the calculation unit 230 may be performed by the control unit 240, which will be described later.

제어부(240)는 드론의 전반적인 제어를 담당하거나 관여할 수 있다. The control unit 240 may be responsible for or involved in overall control of the drone.

실시 예에 따라, 제어부(240)는 수신되는 이미지 데이터와 그에 대한 인식 결과를 메모리(250)에 저장하도록 제어하여, 메모리(250)가 빅데이터를 형성할 수 있도록 하여, 각 구성(220 내지 230)의 딥러닝 학습 및 추론 성능을 향상시킬 수 있다.Depending on the embodiment, the control unit 240 controls the received image data and the recognition result thereof to be stored in the memory 250, so that the memory 250 can form big data, and each component 220 to 230 ) can improve deep learning learning and inference performance.

상기 제어부(240)는 후술하는 대응 방어 동작 과정에서 필요한 경우에, 군집 드론(110)이 형성된 편대 대형상에서 미리 정한 시간 동안 호버링(hovering)이 가능하도록 제어할 수 있다.The control unit 240 can control the swarm drones 110 to hover for a predetermined period of time in the formation of the swarm drones 110, if necessary during a counter-defense operation process to be described later.

메모리(250)는 다양한 데이터를 영구 또는 일시 저장할 수 있으며, 그러한 데이터로 잠재 타깃의 타깃 식별 여부 판단을 위한 이미지 데이터, 센서부(220)를 통해 센싱 된 데이터 등이 포함될 수 있다.The memory 250 may permanently or temporarily store various data, and such data may include image data for determining target identification of a potential target, data sensed through the sensor unit 220, etc.

도 3은 본 발명의 일 실시 예에 따른 통제시스템(120)의 구성 블록도이다.Figure 3 is a block diagram of the control system 120 according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 통제시스템(120)은 크게 프로세서와 메모리(350)로 구분할 수 있으며, 상기 프로세서는 통신부(310), 데이터전처리부(320), 처리부(330) 및 제어부(340)를 포함한다.Referring to FIG. 3, the control system 120 according to an embodiment of the present invention can be largely divided into a processor and a memory 350, and the processor includes a communication unit 310, a data pre-processing unit 320, and a processing unit 330. ) and a control unit 340.

통신부(310)는 무인 비행장치(120)를 조종하고자 하는 조종장치(미도시)로부터 조종입력을 수신하여 비행 제어부(320)로 전달한다. 또한, 통신부(310)는 영상 촬영부(340)가 촬영한 풍력 발전기의 이미지를 결함 분석장치(110)로 전송한다.The communication unit 310 receives a control input from a control device (not shown) that wishes to control the unmanned flying device 120 and transmits it to the flight control unit 320. Additionally, the communication unit 310 transmits the image of the wind power generator captured by the image capture unit 340 to the defect analysis device 110.

데이터전처리부(320)는 처리부(330)에서 처리할 데이터 즉, 군집 드론(110)으로부터 수신된 이미지 데이터를 전처리할 수 있다. The data preprocessing unit 320 may preprocess data to be processed by the processing unit 330, that is, image data received from the swarm drone 110.

처리부(330)는 전처리된 이미지 데이터를 프로세싱 할 수 있다. 이 때, 처리부(330)는 전술한 도 2의 연산부(230)의 동작을 모두 수행할 수 있다.The processing unit 330 may process pre-processed image data. At this time, the processing unit 330 can perform all of the operations of the calculation unit 230 of FIG. 2 described above.

실시 예에 따라, 도 2의 연산부(230)와 도 3의 처리부(330) 모두 존재하여 결과를 교차 검증할 수도 있다.Depending on the embodiment, both the calculation unit 230 of FIG. 2 and the processing unit 330 of FIG. 3 may be present to cross-verify the results.

실시 예에 따라, 도 2의 연산부(230)에서는 타깃의 인식을 위한 동작만 수행하고, 도 3의 처리부(330)에서 인식된 타깃에 대한 상대운동 추정을 할 수도 있다.Depending on the embodiment, the calculation unit 230 of FIG. 2 may only perform operations for target recognition, and the processing unit 330 of FIG. 3 may estimate relative motion for the recognized target.

처리부(330)는 도 2의 연산부(230) 및/또는 자체적으로 연산 처리 결과 인식된 타깃과 해당 타깃의 상대운동 추정 정보로부터 그로부터 대상물의 방어를 위하여 군집 드론(110)의 대응 방어 제어 정보를 생성하여, 전송할 수 있다.The processing unit 330 generates corresponding defense control information of the swarm drone 110 to defend the object from the target recognized as a result of calculation processing by the calculation unit 230 of FIG. 2 and/or itself and the relative motion estimation information of the target. So, it can be transmitted.

이 때, 상기 대응 방어 제어 정보에는 군집을 형성하는 개별 또는 그룹 단위의 대형이나 정렬 및 비행에 관한 제1 제어 정보와 상기 타깃에 대한 구체적인 대응 동작에 관한 제2 제어 정보가 포함될 수 있다.At this time, the response defense control information may include first control information regarding the formation, alignment, and flight of individual or group units forming a swarm, and second control information regarding specific response actions to the target.

상기 제1 제어 정보는, 타깃 인식 전에 n*m 대의 편대가 일정한 평면편대 대형을 구성하던 것을, 개별 드론이 서로 일정한 간격으로 분산 대형을 형성하여 일정한 궤적으로 이동하도록 하는 것과 관련된 정보가 포함될 수 있다. 이 때, 상기 평면편대 대형은 예를 들어, 직사각형, 정사각형, 삼각형, 원형 등 다양한 대형이 포함될 수 있다. 한편, 상기 분산 대형은 예를 들어, 제2 제어 정보에 따른 대응 범위, 상호간에 통신 가능 범위, 인식된 타깃의 이동 속도 내지 이동 방향과 같은 상대운동 추정 정보 등 중 적어도 하나에 기초하여 결정될 수 있다.The first control information may include information related to allowing individual drones to form a distributed formation at regular intervals and move in a certain trajectory, rather than forming a constant plane formation of n*m squadrons before target recognition. . At this time, the flat formation may include various shapes such as rectangle, square, triangle, and circle. Meanwhile, the distributed formation may be determined based on at least one of, for example, a correspondence range according to the second control information, a mutual communication range, and relative motion estimation information such as the movement speed or direction of movement of the recognized target. .

상기 제1 제어 정보에는 이동 중 타깃을 인식한 경우, 인식된 해당 영역을 기준으로 편대가 밀집 대형을 형성하여, 해당 타깃에 대한 더 많은 정보를 획득하도록 상기 편대의 이동을 제어할 수 있다. 이 때, 밀집 대형은 3차원면이나 구체, 원뿔형 등 중 어느 하나일 수 있다.In the first control information, when a target is recognized while moving, the formation forms a dense formation based on the recognized area, and the movement of the formation can be controlled to obtain more information about the target. At this time, the dense formation may be one of a three-dimensional surface, a sphere, or a cone shape.

다음으로, 상기 제2 제어 정보에는 최종적으로 인식된 타깃이 예를 들어, 적으로 간주되어 이에 대한 대응을 하도록 하는 정보가 포함되는 것으로, 상기 타깃의 상대운동 추정 정보에 기초하여 미리 정의된 거리 밖에서 접근하는 타깃에 고속으로 이동하여 충돌하도록 제어하는 정보, 타깃과의 거리가 상기 미리 정의된 거리 이내(예를 들어, 상대적으로 초근접)인 경우에는 자폭하여 산탄화하는 방향으로 제어하는 정보 등이 포함될 수 있다. 상기 제어 정보는 예컨대, 미사일 유도제어 방법과 유사한 유도제어기법에 기초하여 생성될 수 있다. 이 때, 상기 미사일 유도제어 방법은 현존하는 또는 추후 개발될 다양한 기법이 참고 또는 원용될 수 있으며, 관련 내용은 해당 기술 내용을 참조하고 여기서 별도 상세 설명은 생략한다.Next, the second control information includes information that allows the finally recognized target to be regarded as an enemy and respond to it, for example, from outside a predefined distance based on the relative motion estimation information of the target. Information that controls to move at high speed and collide with an approaching target, information that controls self-destruction and bombardment if the distance to the target is within the predefined distance (e.g., relatively close proximity), etc. may be included. For example, the control information may be generated based on a guidance control technique similar to a missile guidance control method. At this time, the missile guidance control method may refer to or use various techniques that exist or will be developed in the future. For related details, refer to the relevant technical contents and separate detailed descriptions will be omitted here.

한편, 상기 고속 충돌 기법과 관련하여, 순차 충돌 방식, 그물형 충돌 방식 등 중 적어도 하나가 이용될 수 있다. 상기 순차 충돌 방식은 예를 들어, 편대에 소속된 개별 드론에 대하여 충돌 우선순위를 할당하여 순차로 타깃과 충돌을 시도하는 방식이다. 한편, 그물형 충돌 방식은 그물처럼 복수개의 드론들이 타깃에 고속으로 접근하면서 동시에 충돌을 시도하는 방식이다.Meanwhile, in relation to the high-speed collision technique, at least one of a sequential collision method, a mesh collision method, etc. may be used. The sequential collision method is, for example, a method of assigning collision priorities to individual drones belonging to a formation and attempting to collide with the target sequentially. Meanwhile, the net collision method is a method in which multiple drones approach the target at high speed like a net and attempt to collide at the same time.

한편, 상기 제2 제어 정보 또는 충돌 방식과 관련하여, 편대를 멀티-레이어 방식으로 비행하도록 제어한 후에, 1차로 가장 타깃과 근접한 드론(들)이 그물형 충돌 방식으로 충돌을 시도하고, 2차로 개별 드론이 충돌 우선순위에 따라 충돌을 시도하는 방식을 채택하거나 그 반대일 수도 있다.Meanwhile, in relation to the second control information or collision method, after controlling the formation to fly in a multi-layer manner, the drone(s) closest to the target in the first attempt to collide in a net collision method, and in the second Individual drones may adopt a method of attempting collisions according to collision priority, or vice versa.

실시 예에 따라, 상기 제1 또는 제2 제어 정보 또는 충돌 방식과 관련하여, 편대의 일부 드론은 자폭을 시도하도록 제어하되, 개별 드론의 자폭 유효 범위를 고려하여, 상기 편대의 대형이 조정되도록 제어할 수 있다. 상기 자폭 방식은 상술한 충돌 방식을 대체하거나 결합될 수 있다. 한편, 상기 편대의 대형을 결정함에 있어서, 개별 드론의 자폭 유효 범위가 일정 범위 이상 상호 겹칠 수 있도록 하는 것이 바람직하다. 또한, 상기 편대 대형 결정과 관련하여, 상기 자폭 유효 범위뿐만 아니라 타깃의 상대운동 추정 정보가 더 참조될 수 있다.Depending on the embodiment, in relation to the first or second control information or collision method, some drones in the formation are controlled to attempt self-destruction, but the formation of the formation is adjusted considering the effective range of self-destruction of individual drones. can do. The self-destruct method may replace or be combined with the collision method described above. Meanwhile, when determining the formation of the formation, it is desirable to ensure that the self-destruction effective ranges of individual drones overlap each other by more than a certain range. In addition, in relation to the formation formation decision, not only the self-destruction effective range but also the relative motion estimation information of the target may be further referenced.

참고로, 도 6에서는 대응 방어 방식을 설명하고 있는데, 통제시스템(120) 또는 대상물 즉, 함정(610)의 단말기상에서 인식된 타깃(630)과 해당 타깃(630)의 상대운동 추정 정보(620)가 출력되고, 그에 따라 군집 드론(110)이 편대 대형을 형성하여 타깃(630)에 충돌 등 방어 동작을 하는 개념도가 도시되었다.For reference, FIG. 6 illustrates a response defense method, in which the target 630 recognized on the terminal of the control system 120 or the object, that is, the ship 610, and the relative motion estimation information 620 of the target 630 is output, and accordingly, a conceptual diagram is shown in which the swarm drones 110 form a formation and perform defensive operations such as collisions with the target 630.

도 4는 본 발명의 일 실시 예에 따른 지능형 방어 방법을 설명하기 위해 도시한 순서도이다. Figure 4 is a flow chart illustrating an intelligent defense method according to an embodiment of the present invention.

편의상 도 4는 통제시스템(120)의 관점에서 기술한, 반드시 이에 한정되는 것은 아니다.For convenience, Figure 4 is described from the perspective of the control system 120, but is not necessarily limited thereto.

통제시스템(120)는 군집 드론(110)으로부터 타깃에 대해 수집된 정보를 수신한다(S10). 이 때, 상기 수집 정보에는 타깃에 대하여 센싱된 데이터 즉, 이미지 데이터가 포함될 수 있다.The control system 120 receives information collected about the target from the swarm drone 110 (S10). At this time, the collected information may include sensed data about the target, that is, image data.

통제시스템(120)는 상기 군집 드론(110)으로부터 수신된 정보에 기초하여 타깃을 인식하고, 인식된 타깃에 대한 상대운동추정정보를 획득할 수 있다(S20).The control system 120 can recognize the target based on the information received from the swarm drone 110 and obtain relative motion estimation information for the recognized target (S20).

통제시스템(120)는 상기 인식 결과 및 상대운동추정정보에 기초하여 방어 모드 수행 여부를 판단하고, 판단 결과 방어 모드 수행으로 결정되면 군집 드론(110)의 대응 방어 제어 정보를 생성할 수 있다(S30).The control system 120 determines whether to perform the defense mode based on the recognition result and the relative motion estimation information, and if it is determined to perform the defense mode as a result of the judgment, it can generate corresponding defense control information for the swarm drone 110 (S30) ).

통제시스템(120)는 상기 S30 단계에서 생성한 대응 방어 제어 정보를 전송하여 군집 드론(110)을 통하여 타깃으로부터 대상물에 대한 대응 방어 동작을 제어할 수 있다(S40).The control system 120 may transmit the response defense control information generated in step S30 to control response defense operations from the target to the object through the swarm drone 110 (S40).

도 4에서는 각 과정이 순차로 이루어지는 것으로 기재하고 있으나, 이는 본 발명의 일 실시 예를 예시적으로 설명한 것에 불과하며, 그 순서가 도시된 바와 다를 수 있다. 다시 말해, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 도 4에 기재된 순서를 변경하여 실행하거나 각 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.In Figure 4, each process is described as being carried out sequentially, but this is merely an exemplary description of one embodiment of the present invention, and the order may be different from that shown. In other words, a person of ordinary skill in the technical field to which the present invention pertains can change and execute the sequence shown in FIG. 4 or perform one or more of the processes in parallel without departing from the essential characteristics of the technical idea of the present invention. Since it can be applied through various modifications and transformations by execution, FIG. 4 is not limited to a time series order.

도 5는 본 발명의 일 실시 예에 따른 개별 드론의 동작을 설명하기 위해 도시한 도면이다.Figure 5 is a diagram illustrating the operation of an individual drone according to an embodiment of the present invention.

타깃이 접근하면, 드론의 센서부(220)는 상기 접근 타깃에 대하여 센싱한 데이터 즉, 이미지 데이터를 획득할 수 있다.When a target approaches, the sensor unit 220 of the drone can obtain sensed data, that is, image data, about the approaching target.

이렇게 획득된 이미지 데이터는 이미지 프로세싱 모듈(image processing module)에서 이미지 처리가 이루어지고, 미션 관리 모듈(mission management module)로 입력된다. 이 때, 상기 이미지 프로세싱 모듈과 미션 관리 모듈은 온-보드 시각 검사 미션 플래너(on-board visual inspection mission planner)라고 명명할 수 있으며 예를 들어, 전술한 도 2의 연산부(230)이거나 그에 포함될 수 있다.The image data obtained in this way is image processed in an image processing module and input to a mission management module. At this time, the image processing module and the mission management module may be named an on-board visual inspection mission planner and may be, for example, the operation unit 230 of FIG. 2 or included therein. there is.

미션 관리 모듈의 출력은 비행 제어 컴퓨터(flight control computer)의 입력 데이터로 입력되고, 비행 컨트롤 컴퓨터는 이를 통해 타깃에 손상을 가할 수 있는 자동 블레이드 검사 드론(sensor-fused autonomous blade inspection drone)의 비행, 충돌 동작 등의 동작을 제어할 수 있다. 이 때, 상기 비행 제어 컴퓨터는 연산부(230)에 포함될 수 있다.The output of the mission management module is input as input data to the flight control computer, and the flight control computer uses this to control the flight of a sensor-fused autonomous blade inspection drone that can damage the target, Operations such as collision actions can be controlled. At this time, the flight control computer may be included in the calculation unit 230.

상술한 적어도 하나 이상의 드론은 예를 들어, 캐니스터(canister) 등에 내장할 수도 있다.At least one drone described above may be built into, for example, a canister.

한편, 도 4에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes shown in FIG. 4 can be implemented as computer-readable codes on a computer-readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system. In other words, computer-readable recording media include magnetic storage media (e.g., ROM, floppy disk, hard disk, etc.), optical read media (e.g., CD-ROM, DVD, etc.), and carrier wave (e.g., Internet It includes storage media such as transmission through . Additionally, computer-readable recording media can be distributed across networked computer systems so that computer-readable code can be stored and executed in a distributed manner.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

본 발명은 군집 무인비행체 이용 지능형 방어 방법, 장치 및 시스템에 관한 것으로 다양한 지능형 방어 방법, 장치 및 시스템에 이용하는 것이 가능하다.The present invention relates to an intelligent defense method, device, and system using swarm unmanned aerial vehicles, and can be used in various intelligent defense methods, devices, and systems.

110 : 군집 드론
120 : 통제시스템
610 : 대상물
630 : 타깃
110: Swarm Drones
120: control system
610: object
630: target

Claims (10)

전자장치에 의해, 군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물 방어 방법에 있어서,
타깃(target)에 대해 획득된 정보를 수신하는 단계;
미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하는 단계;
인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하는 단계; 및
생성된 군집 무인비행체 대응 방어 제어 정보를 전송하는 단계를 포함하는,
군집 무인비행체를 이용한 대상물 방어 방법.
In a method of defending an object using an electronic device, a swarm unmanned aerial vehicle,
Receiving information obtained about a target;
Recognizing the target from target information received through a predefined algorithm and estimating relative motion information for the recognized target;
Generating corresponding defense control information of a swarm unmanned aerial vehicle for defending the object based on relative motion information estimated with respect to the recognition target; and
Including transmitting the generated swarm unmanned aerial vehicle response defense control information,
Method for defending objects using swarm unmanned aerial vehicles.
제1항에 있어서,
상기 군집 무인비행체 대응 방어 제어 정보에는,
상기 군집 무인비행체 각각 또는 그룹 단위에서의 정렬 및 비행에 관한 제1 제어 정보가 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to paragraph 1,
In the swarm unmanned aerial vehicle response defense control information,
Containing first control information regarding alignment and flight in each or group of the swarm unmanned aerial vehicles,
Method for defending objects using swarm unmanned aerial vehicles.
제2항에 있어서,
상기 군집 무인비행체 대응 방어 제어 정보에는,
상기 타깃에 대한 대응에 관한 제2 제어 정보가 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to paragraph 2,
In the swarm unmanned aerial vehicle response defense control information,
Containing second control information regarding response to the target,
Method for defending objects using swarm unmanned aerial vehicles.
제3항에 있어서,
상기 제2 제어 정보에는,
상기 타깃에 대해 추정한 상대운동 정보에 기초하여 고속 이동 및 충돌 제어 정보 및 상기 타깃과의 거리가 미리 정한 범위 이내인 경우 상기 군집 무인비행체의 자폭 및 산탄화 제어 정보가 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to paragraph 3,
In the second control information,
High-speed movement and collision control information based on the relative motion information estimated for the target, and self-destruction and scattering control information of the swarm unmanned aerial vehicle when the distance to the target is within a predetermined range,
Method for defending objects using swarm unmanned aerial vehicles.
제4항에 있어서,
상기 타깃에는 적어도 하나의 무인비행체가 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to paragraph 4,
The target includes at least one unmanned aerial vehicle,
Method for defending objects using swarm unmanned aerial vehicles.
제5항에 있어서,
상기 수신된 타깃에 대해 획득된 정보에는,
군집을 형성하는 개별 무인비행체에 탑재된 센서모듈에 의해 획득된 이미지 데이터가 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to clause 5,
In the information obtained about the received target,
Contains image data acquired by sensor modules mounted on individual unmanned aerial vehicles forming a swarm,
Method for defending objects using swarm unmanned aerial vehicles.
제6항에 있어서,
상기 센서모듈에는 카메라를 포함한 이미지 센서, 라이다 센서 및 레이다 센서 중 적어도 하나 이상이 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
According to clause 6,
The sensor module includes at least one of an image sensor including a camera, a lidar sensor, and a radar sensor,
Method for defending objects using swarm unmanned aerial vehicles.
제7항에 있어서,
상기 미리 정의된 알고리즘에는,
딥러닝 기법의 CNN이 포함되는,
군집 무인비행체를 이용한 대상물 방어 방법.
In clause 7,
In the predefined algorithm,
Contains CNN of deep learning techniques,
Method for defending objects using swarm unmanned aerial vehicles.
군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물을 방어하는 장치에 있어서,
메모리; 및
프로세서를 포함하되, 상기 프로세서는,
타깃에 대해 획득된 정보를 수신하여, 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하고, 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하여 전송하는,
군집 무인비행체를 이용한 대상물 방어 장치.
In a device for defending an object using a swarm unmanned aerial vehicle,
Memory; and
Including a processor, wherein the processor includes:
Receives information obtained about a target, recognizes the target from the target information received through a predefined algorithm, estimates relative motion information for the recognized target, and based on the estimated relative motion information for the recognition target Generating and transmitting response defense control information of the swarm unmanned aerial vehicle for defending the object,
Object defense device using swarm unmanned aerial vehicles.
군집 무인비행체(Unmanned Aerial Vehicle)를 이용하여 대상물을 방어하는 시스템에 있어서,
타깃에 대해 정보를 획득하는 센서모듈을 포함하고 군집을 형성하는 드론들; 및
메모리와 프로세서를 포함한 통제시스템을 포함하되,
상기에서, 프로세서는,
상기 타깃에 대해 획득된 정보를 수신하여, 미리 정의된 알고리즘을 통해 수신된 타깃 정보로부터 상기 타깃을 인식하고, 인식된 타깃에 대해 상대운동정보를 추정하고, 인식 타깃에 대해 추정된 상대운동정보에 기초하여 상기 대상물 방어를 위한 군집 무인비행체의 대응 방어 제어 정보를 생성하여 전송하는,
군집 무인비행체를 이용한 대상물 방어 시스템.
In a system for defending an object using a swarm unmanned aerial vehicle,
Drones that include sensor modules that acquire information about targets and form swarms; and
Includes a control system including memory and processor,
In the above, the processor:
Receives information obtained about the target, recognizes the target from the target information received through a predefined algorithm, estimates relative motion information for the recognized target, and calculates relative motion information estimated for the recognition target. Based on this, generate and transmit response defense control information of the swarm unmanned aerial vehicle for defending the object,
Object defense system using swarm unmanned aerial vehicles.
KR1020220056914A 2022-05-09 2022-05-09 Method, apparatus and system for intellignece shield using uav swarm KR20230157192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220056914A KR20230157192A (en) 2022-05-09 2022-05-09 Method, apparatus and system for intellignece shield using uav swarm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220056914A KR20230157192A (en) 2022-05-09 2022-05-09 Method, apparatus and system for intellignece shield using uav swarm

Publications (1)

Publication Number Publication Date
KR20230157192A true KR20230157192A (en) 2023-11-16

Family

ID=88964782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220056914A KR20230157192A (en) 2022-05-09 2022-05-09 Method, apparatus and system for intellignece shield using uav swarm

Country Status (1)

Country Link
KR (1) KR20230157192A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895343B1 (en) 2016-12-26 2018-09-05 이선구 Collision avoidance apparatus for vehicles
KR102281804B1 (en) 2019-09-27 2021-07-26 조순식 Drone control system for preventing conllisions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895343B1 (en) 2016-12-26 2018-09-05 이선구 Collision avoidance apparatus for vehicles
KR102281804B1 (en) 2019-09-27 2021-07-26 조순식 Drone control system for preventing conllisions

Similar Documents

Publication Publication Date Title
WO2019067695A1 (en) Flight control using computer vision
US10073454B2 (en) Machine vision enabled swarm guidance technology
US20100042269A1 (en) System and methods relating to autonomous tracking and surveillance
Chun et al. Robot surveillance and security
Marques et al. Unmanned Aircraft Systems in Maritime Operations: Challenges addressed in the scope of the SEAGULL project
KR102477584B1 (en) Method and apparatus for surveilling aircraft
KR102296962B1 (en) Method and system for defending an anti- drone
Cigla et al. Onboard stereo vision for drone pursuit or sense and avoid
Zsedrovits et al. Onboard visual sense and avoid system for small aircraft
Clark et al. A vision-based proportional navigation guidance law for UAS sense and avoid
Hwang et al. Aircraft detection using deep convolutional neural network in small unmanned aircraft systems
Ajakwe et al. Tractable minacious drones aerial recognition and safe-channel neutralization scheme for mission critical operations
Petrovski et al. Application of Drones With Artificial Intelligence for Military Purposes
KR102349818B1 (en) Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes
Geyer et al. Prototype sense-and-avoid system for UAVs
US9208447B1 (en) Method and system for classifying vehicle tracks
KR20230157192A (en) Method, apparatus and system for intellignece shield using uav swarm
Tyler et al. Autonomous teammates for squad tactics
RU2483273C1 (en) Complex homing head (versions)
Farlík et al. Researching UAV threat–new challenges
KR102414986B1 (en) UAV Navigation based on GPS and Improved deep learning Network and UAV system using the same
Brunet et al. Stereo Vision for Unmanned Aerial VehicleDetection, Tracking, and Motion Control
US9279643B2 (en) Preemptive countermeasure management
Lee et al. Low-SWaP EO sensor-based robust aircraft detection for DAA technology in UAS Integration
Karreddula et al. Detection of normal and abnormal conditions for boundary surveillance using unmanned aerial vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal