KR102593390B1 - A device for controlling drone landing and a method thereof - Google Patents

A device for controlling drone landing and a method thereof Download PDF

Info

Publication number
KR102593390B1
KR102593390B1 KR1020230041209A KR20230041209A KR102593390B1 KR 102593390 B1 KR102593390 B1 KR 102593390B1 KR 1020230041209 A KR1020230041209 A KR 1020230041209A KR 20230041209 A KR20230041209 A KR 20230041209A KR 102593390 B1 KR102593390 B1 KR 102593390B1
Authority
KR
South Korea
Prior art keywords
drone
detection
landing
unit
detection area
Prior art date
Application number
KR1020230041209A
Other languages
Korean (ko)
Inventor
노인철
Original Assignee
(주)마이크로드론코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)마이크로드론코리아 filed Critical (주)마이크로드론코리아
Priority to KR1020230041209A priority Critical patent/KR102593390B1/en
Application granted granted Critical
Publication of KR102593390B1 publication Critical patent/KR102593390B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Abstract

드론 착륙 제어 장치(100)가 제공된다. 상기 드론 착륙 제어 장치(100)는 드론(200)으로부터 촬영 영상을 수신하도록 구성되는 통신부(120); 상기 수신된 촬영 영상에서 미리 지정된 객체를 탐지하도록 구성되는 객체 탐지부(130); 및 상기 탐지된 객체의 유무에 따라 상기 드론(200)의 착륙을 제어하도록 구성되는 제어부(110)를 포함할 수 있다.A drone landing control device 100 is provided. The drone landing control device 100 includes a communication unit 120 configured to receive captured images from the drone 200; an object detection unit 130 configured to detect a predetermined object in the received captured image; And it may include a control unit 110 configured to control the landing of the drone 200 depending on the presence or absence of the detected object.

Description

드론 착륙 제어 장치 및 그 방법{A DEVICE FOR CONTROLLING DRONE LANDING AND A METHOD THEREOF}Drone landing control device and method {A DEVICE FOR CONTROLLING DRONE LANDING AND A METHOD THEREOF}

본 발명은 드론 착륙 제어 장치 및 그 방법에 관한 발명으로서, 보다 구체적으로 드론의 착륙 시에 드론에 장착된 카메라의 촬영 영상으로부터 인공 지능(AI) 기반으로 착륙 지점에 미리 지정된 객체가 존재하는지 여부를 판단하고 착륙 지점에 미리 지정된 객체가 존재하는 경우에는 드론의 착륙을 중지하고 객체가 존재하지 않는 경우에만 드론이 착륙하도록 제어함으로써 보다 안전한 드론 착륙을 구현할 수 있는 드론 착륙 제어 장치 및 그 방법에 관한 발명이다.The present invention relates to a drone landing control device and method. More specifically, when a drone lands, it determines whether a pre-designated object exists at the landing point based on artificial intelligence (AI) from the captured image of a camera mounted on the drone. An invention relating to a drone landing control device and method that can implement a safer drone landing by determining and stopping the landing of the drone if a pre-designated object exists at the landing point and controlling the drone to land only when the object does not exist. am.

일반적으로 무인 비행체(UAV; Unmanned Aerial Vehicle)로도 불리우는 드론(drone)은 조종사가 없이 무선전파유도에 의해 비행 및 조종이 가능한 무인항공기로서, 초기에는 주로 군사용으로 활용되었지만 그 간편성, 신속성, 경제성 등 여러가지 이점으로 인해 최근에서는 군사용 이외에도 물류 배송, 재난 구조, 방송, 레저, 산림 관리, 시설 관리, 스포츠 등 매우 다양한 분야에서 활용되고 있다. A drone, also commonly referred to as an unmanned aerial vehicle (UAV), is an unmanned aerial vehicle that can fly and be controlled by radio wave guidance without a pilot. It was initially mainly used for military purposes, but has various advantages such as its simplicity, speed, and economic feasibility. Due to this advantage, it has recently been used in a wide variety of fields, including logistics delivery, disaster relief, broadcasting, leisure, forest management, facility management, and sports, in addition to military use.

이러한 드론은 임무 수행을 위해 목적하는 지점에 안전하게 착륙시키는 것이 매우 중요한데, 드론에는 조종사가 탑승할 수가 없기 때문에 착륙 지점에서 추락하거나 또는 지상의 여러 물체들과 충돌하지 않도록 드론의 착륙을 안전하게 제어할 필요가 있다. It is very important for these drones to land safely at the intended point to perform their mission. Since a pilot cannot board a drone, it is necessary to safely control the landing of the drone to prevent it from falling at the landing point or colliding with various objects on the ground. There is.

조종자가 육안으로 판별이 가능한 영역 내에서 드론을 착륙시키는 경우에는 조종자가 착륙 지점의 안전 상태를 직접 육안으로 확인할 수 있지만, 착륙 지점이 조종자의 육안으로 판별 가능한 영역을 벗어나는 경우 또는 자율 비행으로 드론이 비행을 하는 경우 등에는 착륙 지점에서 드론을 보다 안전하게 착륙시킬 새로운 드론 제어 방법이 요구된다. If the pilot lands the drone within an area that can be visually determined, the pilot can directly visually check the safety status of the landing point. However, if the landing point is outside the area that can be visually determined by the pilot, or the drone flies autonomously, In the case of flight, a new drone control method is required to land the drone more safely at the landing point.

따라서, 이러한 기존 드론 제어 방식의 제약을 극복하기 위해서 드론의 착륙을 보다 안전하게 제어할 수 있도록 하는 새로운 방식의 드론 착륙 제어 장치 및 그 방법에 관한 요구가 당업계에서 점차 증가하고 있는 상황이다.Therefore, in order to overcome the limitations of existing drone control methods, the demand for a new drone landing control device and method to control the landing of a drone more safely is gradually increasing in the art.

본 발명은 상기의 문제점들을 해결하고자 안출된 것으로서, 본 발명은 드론 촬영 영상에 기초하여 사전에 지정된 객체를 탐지하고 그 결과에 기초하여 드론의 착륙을 구현함으로서 보다 안전하게 드론을 착륙 지점에 착륙시킬 수 있도록 하는 드론 착륙 제어 장치 및 그 방법을 제공하는 것을 목적으로 한다. The present invention was created to solve the above problems. The present invention detects a pre-designated object based on a drone captured image and implements the landing of the drone based on the results, thereby making it possible to land the drone at the landing point more safely. The purpose is to provide a drone landing control device and method that allows the drone to land.

또한, 본 발명은 촬영 영역 내에서 객체를 탐지할 탐지 영역을 설정함으로써 객체 탐지의 효율을 보다 개선할 수 있는 드론 착륙 제어 장치 및 그 방법을 제공하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to provide a drone landing control device and method that can further improve the efficiency of object detection by setting a detection area for detecting objects within a shooting area.

또한, 본 발명은 착륙 지점의 형태, 위치, 주변위험시설 등에 따라 탐지 영역을 가변적으로 설정하도록 함으로써 착륙 지점에 대한 능동적인 대처가 가능하고 그에 따라 객체 탐지의 정확도 및 효율을 보다 개선할 수 있는 착륙 제어 장치 및 그 방법을 제공하는 것을 목적으로 한다. In addition, the present invention enables active response to the landing point by setting the detection area variably according to the shape, location, and surrounding hazardous facilities of the landing point, and thereby improves the accuracy and efficiency of object detection. The purpose is to provide a control device and method.

또한, 본 발명은 탐지된 객체가 사람인 경우 소정의 대피 방송을 송출함으로써 보다 안전하게 드론을 착륙 지점에 착륙시키도록 하는 착륙 제어 장치 및 그 방법을 제공하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to provide a landing control device and method that allows a drone to land more safely at a landing point by transmitting a predetermined evacuation broadcast when the detected object is a person.

또한, 본 발명은 드론이 탐지 개시 고도로부터 지상으로 하강함에 따라 탐지되는 객체의 위치, 개수 등에 기초하여 탐지 영역의 위치, 크기, 개수 등을 가변적으로 설정함으로써 객체 탐지의 정확도 및 효율을 보다 개선할 수 있는 착륙 제어 장치 및 그 방법을 제공하는 것을 목적으로 한다. In addition, the present invention can further improve the accuracy and efficiency of object detection by variably setting the location, size, and number of detection areas based on the location and number of objects detected as the drone descends from the detection start altitude to the ground. The purpose is to provide a capable landing control device and method.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기의 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 드론 착륙 제어 장치는, 드론으로부터 촬영 영상을 수신하도록 구성되는 통신부; 상기 수신된 촬영 영상에서 미리 지정된 객체를 탐지하도록 구성되는 객체 탐지부; 및 상기 탐지된 객체의 유무에 따라 상기 드론의 착륙을 제어하도록 구성되는 제어부를 포함할 수 있다. A drone landing control device according to an embodiment of the present invention for solving the above technical problem includes a communication unit configured to receive captured images from a drone; an object detection unit configured to detect a predetermined object in the received captured image; and a control unit configured to control landing of the drone depending on the presence or absence of the detected object.

또한, 상기 객체 탐지부는, 상기 수신된 촬영 영상에서 탐지 영역을 설정하도록 구성되는 탐지 영역 설정 유닛을 포함할 수 있다. Additionally, the object detection unit may include a detection area setting unit configured to set a detection area in the received captured image.

또한, 상기 객체 탐지부는, 상기 설정된 탐지 영역에서 상기 미리 지정된 객체를 탐지하도록 구성되는 객체 탐지 유닛을 더 포함할 수 있다. In addition, the object detection unit may further include an object detection unit configured to detect the predetermined object in the set detection area.

또한, 상기 객체 탐지 유닛은 상기 미리 지정된 객체의 평면도 이미지에 대한 AI 학습에 기초하여 상기 설정된 탐지 영역에서 상기 미리 지정된 객체를 탐지하도록 추가로 구성될 수 있다. In addition, the object detection unit may be further configured to detect the pre-designated object in the set detection area based on AI learning on a floor plan image of the pre-designated object.

또한, 상기 객체 탐지부는, 상기 미리 지정된 객체가 탐지되면 상기 탐지된 객체를 표시하도록 구성되는 객체 표시 유닛을 더 포함할 수 있다. In addition, the object detection unit may further include an object display unit configured to display the detected object when the pre-designated object is detected.

또한, 상기 탐지 영역 설정 유닛은 드론 착륙 장소의 형태, 위치 및 주변위험시설 중 적어도 하나에 기초하여 상기 탐지 영역의 형상 및 크기를 설정하도록 추가로 구성될 수 있다. In addition, the detection area setting unit may be further configured to set the shape and size of the detection area based on at least one of the shape and location of the drone landing site and surrounding dangerous facilities.

또한, 상기의 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 드론 착륙 제어 시스템은, 상기의 드론 착륙 제어 장치; 및 상기 드론 착륙 제어 장치와 통신 가능하게 결합되는 드론을 포함할 수 있다. In addition, a drone landing control system according to another embodiment of the present invention for solving the above technical problem includes the drone landing control device; And it may include a drone that is communicatively coupled to the drone landing control device.

또한, 상기의 기술적 과제를 해결하기 위한 본 발명의 추가 실시예에 따른 드론 착륙 제어 방법은, 드론으로부터 촬영 영상을 수신하는 단계; 상기 수신된 촬영 영상에서 미리 지정된 객체를 탐지하는 단계; 및 상기 탐지된 객체의 유무에 따라 상기 드론의 착륙을 제어하는 단계를 포함할 수 있다.In addition, a drone landing control method according to an additional embodiment of the present invention for solving the above technical problem includes receiving a captured image from a drone; Detecting a pre-designated object in the received captured image; And it may include controlling the landing of the drone depending on the presence or absence of the detected object.

본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 드론 촬영 영상에 기초하여 사전에 지정된 객체를 탐지하고 그 결과에 기초하여 드론의 착륙을 구현함으로서 보다 안전하게 드론을 착륙 지점에 착륙시킬 수 있다. According to the drone landing control device and method according to an embodiment of the present invention, a pre-designated object is detected based on a drone captured image and the drone is landed based on the result, thereby landing the drone more safely at the landing point. You can do it.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 촬영 영역 내에서 객체를 탐지할 탐지 영역을 설정함으로써 객체 탐지의 효율을 보다 개선할 수 있다.In addition, according to the drone landing control apparatus and method according to an embodiment of the present invention, the efficiency of object detection can be further improved by setting a detection area for detecting objects within the shooting area.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 착륙 지점의 형태, 위치, 주변위험시설 등에 따라 탐지 영역을 가변적으로 설정하도록 함으로써 착륙 지점에 대한 능동적인 대처가 가능하고 그에 따라 객체 탐지의 정확도 및 효율을 보다 개선할 수 있다. In addition, according to the drone landing control device and method according to an embodiment of the present invention, active response to the landing point is possible by variably setting the detection area according to the shape, location, and surrounding dangerous facilities of the landing point, Accordingly, the accuracy and efficiency of object detection can be further improved.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 탐지된 객체가 사람인 경우 소정의 대피 방송을 송출함으로써 보다 안전하게 드론을 착륙 지점에 착륙시킬 수 있다. In addition, according to the drone landing control apparatus and method according to an embodiment of the present invention, when the detected object is a person, a predetermined evacuation broadcast is transmitted, so that the drone can land at the landing point more safely.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 드론이 탐지 개시 고도로부터 지상으로 하강함에 따라 탐지되는 객체의 위치, 개수 등에 기초하여 탐지 영역의 위치, 크기, 개수 등을 가변적으로 설정함으로써 객체 탐지의 정확도 및 효율을 보다 개선할 수 있다.In addition, according to the drone landing control device and method according to an embodiment of the present invention, as the drone descends from the detection start altitude to the ground, the location, size, number, etc. of the detection area are changed based on the location and number of detected objects. By variably setting , the accuracy and efficiency of object detection can be further improved.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 드론 착륙 제어 시스템(1000)의 개략적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 객체 탐지부(130)의 세부 블록도이다.
도 3은 본 발명의 일 실시예에 따른 드론 착륙 제어 방법(S300)의 개략적인 순서도이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 드론의 촬영 영역과, 객체의 탐지 영역을 설명하기 위한 개략도이다.
도 5는 본 발명의 일 실시예에 따른 탐지 영역을 설명하기 위한 개략도이다.
도 6은 본 발명의 일 실시예에 따라 드론이 하강함에 따른 탐지 영역의 객체 탐지 정확도 향상을 설명하기 위한 개략도이다.
도 7은 본 발명의 일 실시예에 따른 탐지 영역의 가변적 설정(또는 이동)을 설명하기 위한 개략도이다.
In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
Figure 1 is a schematic block diagram of a drone landing control system 1000 according to an embodiment of the present invention.
Figure 2 is a detailed block diagram of the object detection unit 130 according to an embodiment of the present invention.
Figure 3 is a schematic flowchart of a drone landing control method (S300) according to an embodiment of the present invention.
4A and 4B are schematic diagrams illustrating a photographing area of a drone and an object detection area according to an embodiment of the present invention.
Figure 5 is a schematic diagram illustrating a detection area according to an embodiment of the present invention.
Figure 6 is a schematic diagram illustrating improvement in object detection accuracy in the detection area as the drone descends according to an embodiment of the present invention.
Figure 7 is a schematic diagram illustrating variable setting (or movement) of a detection area according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들은 첨부된 도면들을 참조하여 설명한다. 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면 상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 실시예들을 설명할 것이나, 본 발명의 기술적 사상은 이에 한정되거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the attached drawings. When adding reference signs to components in each drawing, it should be noted that the same components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted. In addition, embodiments of the present invention will be described below, but the technical idea of the present invention is not limited or limited thereto and may be modified and implemented in various ways by those skilled in the art.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "indirectly connected" with another element in between. . Throughout the specification, when a part is said to “include” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary. Additionally, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term.

도 1은 본 발명의 일 실시예에 따른 드론 착륙 제어 시스템(1000)의 개략적인 블록도이다. Figure 1 is a schematic block diagram of a drone landing control system 1000 according to an embodiment of the present invention.

도시되는 바와 같이, 본 발명의 일 실시예에 따른 드론 착륙 제어 시스템(1000)은 드론 착륙 제어 장치(100)와, 드론(200)과, 통신망(300) 등으로 구성될 수 있다. 참고로, 도 1에서는 단일의 드론(200)을 예시적으로 도시하고 있으나, 복수의 드론(200)이 통신망(300)을 통해 드론 착륙 제어 장치(100)에 통신 가능하게 결합되어 각각 드론 착륙 제어 장치(100)에 의해 안전한 착륙이 구현될 수 있음은 명백하다. As shown, the drone landing control system 1000 according to an embodiment of the present invention may be composed of a drone landing control device 100, a drone 200, a communication network 300, etc. For reference, although a single drone 200 is shown as an example in FIG. 1, a plurality of drones 200 are communicatively coupled to the drone landing control device 100 through the communication network 300, so that each drone landing control is performed. It is clear that a safe landing can be implemented by means of the device 100.

드론 착륙 제어 장치(100)는 드론(200)의 착륙 시에 드론(200)에 장착된 카메라(210)의 촬영 영상으로부터 인공 지능(AI) 기반으로 착륙 지점에 미리 지정된 객체가 존재하는지 여부를 판단하고 착륙 지점에 미리 지정된 객체가 존재하는 경우에는 드론의 착륙을 중지하고 객체가 존재하지 않는 경우에만 드론이 착륙하도록 제어할 수 있다. 이를 구현하기 위해, 도 1에 도시되는 바와 같이, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치(100)는 제어부(110)와, 통신부(120)와, 객체 탐지부(130)와, 저장부(140) 등을 포함할 수 있으며, 다양한 구현예에 따라 드론 착륙 제어 장치(100)는 지상관제PC 등의 다른 명칭으로 지칭될 수도 있다. When the drone 200 lands, the drone landing control device 100 determines whether a pre-designated object exists at the landing point based on artificial intelligence (AI) from the captured image of the camera 210 mounted on the drone 200. If a pre-designated object exists at the landing point, the drone can be stopped from landing and the drone can be controlled to land only if the object does not exist. To implement this, as shown in FIG. 1, the drone landing control device 100 according to an embodiment of the present invention includes a control unit 110, a communication unit 120, an object detection unit 130, and a storage unit. It may include a unit 140, etc., and depending on various implementations, the drone landing control device 100 may be referred to by another name such as ground control PC.

참고로, 도 1에 도시되는 드론 착륙 제어 장치(100)의 구성요소들(110, 120, 130, 140)은 본 발명의 일 실시예에 따른 드론 착륙 제어 장치(100)의 동작, 기능 등을 설명하기 위한 예시적인 구성요소들에 불과하고, 따라서 본 발명의 일 실시예에 따른 드론 착륙 제어 장치(100)가 도시된 구성요소들(110, 120, 130, 140) 이외의 다른 구성요소(예를 들어, 전원부, 알림부, 표시부 등)를 더 포함할 수 있음은 명백하다. For reference, the components 110, 120, 130, and 140 of the drone landing control device 100 shown in FIG. 1 perform the operations, functions, etc. of the drone landing control device 100 according to an embodiment of the present invention. They are merely exemplary components for explanation, and therefore, the drone landing control device 100 according to an embodiment of the present invention includes other components (e.g., 110, 120, 130, and 140) other than the illustrated components. It is clear that it may further include a power supply unit, a notification unit, a display unit, etc.).

제어부(110)는 드론 착륙 제어 장치(100)의 동작, 기능 등을 총괄하여 제어하도록 구성될 수 있다. 예를 들어, 제어부(110)는 드론(200)이 착륙하고자 하는 착륙 지점에 미리 지정된 객체가 존재하는 경우에는 드론(200)의 착륙을 중지하고 해당 착륙 지점에 미리 지정된 객체가 존재하지 않는 경우에만 드론(200)이 착륙하도록 드론(200)의 비행, 즉 착륙 비행을 제어할 수 있다. 다시 말하면, 제어부(110)는 착륙 지점에서 미리 지정된 객체의 탐지 유무에 따라 드론(200)의 착륙을 제어하도록 구성될 수 있다. The control unit 110 may be configured to comprehensively control the operations and functions of the drone landing control device 100. For example, the control unit 110 stops the landing of the drone 200 when a pre-designated object exists at the landing point where the drone 200 wants to land, and only when the pre-designated object does not exist at the landing point. The flight of the drone 200, that is, the landing flight, can be controlled so that the drone 200 lands. In other words, the control unit 110 may be configured to control the landing of the drone 200 depending on whether or not a pre-designated object is detected at the landing point.

추가로, 본 발명의 일 실시예에 따르면 객체 탐지를 개시하는 탐지 개시 고도(예를 들어, 20m 등)가 사전에 정의될 수 있고, 드론(200)이 착륙 지점의 상부에서 하강을 하면서 탐지 개시 고도에 도달하면 제어부(110)는 객체 탐지부(130)의 동작을 활성화하도록 제어할 수 있다. Additionally, according to one embodiment of the present invention, the detection start altitude at which object detection begins (e.g., 20 m, etc.) may be defined in advance, and detection begins as the drone 200 descends from the upper part of the landing point. When the altitude is reached, the control unit 110 can control the operation of the object detection unit 130 to be activated.

참고로, 제어부(110)는 프로세서(processor), 컨트롤러(controller), 마이크로-프로세서(micro-processor), 마이크로-컨트롤러(micro controller), 등으로 구현될 수 있다. 즉, 제어부(800)는 응용 프로그램의 구동을 위하여, 드론 착륙 제어 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 작동시킬 수 있다. For reference, the control unit 110 may be implemented as a processor, controller, micro-processor, micro-controller, etc. That is, the control unit 800 may operate at least two of the components included in the drone landing control device 100 in combination with each other in order to run the application program.

통신부(120)는 드론 착륙 제어 장치(100)와 드론(200)의 무선 통신을 구현할 수 있다. 예를 들어, 드론 착륙 제어 장치(100)는 통신부(120)를 통해 드론(200)으로부터 촬영 영상을 수신하도록 구성될 수 있다. The communication unit 120 may implement wireless communication between the drone landing control device 100 and the drone 200. For example, the drone landing control device 100 may be configured to receive captured images from the drone 200 through the communication unit 120.

참고로, 통신부(120)는 랜(LAN), WCDMA(Wideband Code Division Multiple Access), LTE(Long Term Evolution), WiBro(Wireless Broadband Internet), RF(Radio Frequency)통신, 무선랜(Wireless LAN), 와이파이(Wireless Fidelity), NFC(Near Field Communication), 블루투스, 적외선 통신 등을 통해 드론(200)과 통신하도록 구성될 수 있고, 보다 바람직하게는 통신부(120)는 RF 통신망, Wifi 통신망, LTE 4G/5G 통신망, IOT 통신망 등을 통해 드론(200)과 통신하도록 구성될 수 있다. For reference, the communication unit 120 includes LAN, Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), Wireless Broadband Internet (WiBro), Radio Frequency (RF) communication, Wireless LAN, It may be configured to communicate with the drone 200 through Wi-Fi (Wireless Fidelity), NFC (Near Field Communication), Bluetooth, infrared communication, etc., and more preferably, the communication unit 120 is configured to communicate with the drone 200 through an RF communication network, Wifi communication network, LTE 4G/ It can be configured to communicate with the drone 200 through a 5G communication network, IOT communication network, etc.

참고로, 드론(200)이 보안에 상대적으로 취약하고 해킹의 위험성이 높으며 해킹된 드론은 범죄 및 테러에 악용될 우려가 있음을 고려하여, 드론 데이터 송수신의 보안을 보다 강화할 필요가 있다. 이를 위해, 드론(200)과 드론 착륙 제어 장치(100) 사이의 통신은 KCMVP(Korea Crypto-graphical Module Validation Program) 암호화 보안 통신일 수 있고, 이는 VPN 기반 또는 모듈 기반으로 구현될 수 있다. For reference, considering that the drone 200 is relatively vulnerable to security, has a high risk of hacking, and there is a risk that hacked drones may be exploited for crime and terrorism, there is a need to further strengthen the security of transmitting and receiving drone data. To this end, communication between the drone 200 and the drone landing control device 100 may be KCMVP (Korea Crypto-graphical Module Validation Program) encrypted secure communication, which may be implemented based on VPN or module.

객체 탐지부(130)는 통신부(120)에서 수신된 촬영 영상에서 미리 지정된 객체를 탐지하도록 구성될 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 객체 탐지부(130)는 드론(200)에 의해 촬영된 촬영 영상을 인공 지능(AI)으로 분석하고 그 결과에 따라 착륙 지점에 사전에 지정된 객체(object)가 존재하는지 여부를 판단할 수 있다.The object detection unit 130 may be configured to detect a pre-designated object in the captured image received from the communication unit 120. More specifically, the object detection unit 130 according to an embodiment of the present invention analyzes the captured image captured by the drone 200 with artificial intelligence (AI), and according to the results, a pre-designated object ( It is possible to determine whether an object exists.

이와 같이 미리 지정된 객체를 탐지하도록 구성되는 객체 탐지부(130)의 세부 블록도가 도 2에 도시된다. 도 2에 도시되는 바와 같이, 본 발명의 일 실시예에 따른 객체 탐지부(130)는 탐지 영역 설정 유닛(131)과, 객체 지정 유닛(132)과, 객체 탐지 유닛(133)과, 객체 표시 유닛(134) 등으로 구성될 수 있다. A detailed block diagram of the object detection unit 130 configured to detect a pre-designated object is shown in FIG. 2. As shown in Figure 2, the object detection unit 130 according to an embodiment of the present invention includes a detection area setting unit 131, an object designation unit 132, an object detection unit 133, and an object display It may be composed of a unit 134, etc.

탐지 영역 설정 유닛(131)은 드론(200)에 의해 촬영되는 촬영 영상에서 객체 탐지를 위한 탐지 영역을 설정하도록 구성될 수 있다. 드론(200)에 의해서 촬영되는 지상의 촬영 영상은 비교적 넓은 면적의 영역을 포함할 수 있는데, 이렇게 넓은 면적의 영역 모두에 대해서 객체 탐지를 수행하게 되면 그 객체 탐지 효율 및 정확도가 저하될 수 밖에 없는 문제점이 있다. The detection area setting unit 131 may be configured to set a detection area for object detection in a captured image captured by the drone 200. The ground image captured by the drone 200 may include a relatively large area, and if object detection is performed on the entire area of such a large area, the object detection efficiency and accuracy will inevitably deteriorate. There is a problem.

따라서, 본 발명의 일 실시예에 따른 탐지 영역 설정 유닛(131)은 객체 탐지의 효율 및 정확도 증대를 위해 드론(200)에 의해 촬영되는 촬영 영상에서 객체 탐지를 위한 탐지 영역을 설정할 수 있고, 여기서 탐지 영역 설정 유닛(131)은 드론 착륙 장소의 형태, 위치, 주변위험시설 등에 기초하여 탐지 영역의 형상, 크기 등을 설정하도록 추가로 구성될 수 있다. 본 발명에 따른 이러한 촬영 영역 및 탐지 영역의 관계, 그리고 탐지 영역의 설정에 대해서는 이하의 도 4 및 도 5에서 보다 상세하게 기술하기로 한다. Therefore, the detection area setting unit 131 according to an embodiment of the present invention can set a detection area for object detection in the captured image captured by the drone 200 to increase the efficiency and accuracy of object detection, where The detection area setting unit 131 may be further configured to set the shape and size of the detection area based on the shape and location of the drone landing site, nearby hazardous facilities, etc. The relationship between the photographing area and the detection area and the setting of the detection area according to the present invention will be described in more detail in FIGS. 4 and 5 below.

객체 지정 유닛(132)은 드론(200)의 착륙 시 탐지할 객체를 지정하도록 구성될 수 있다. 예를 들어, 본 발명에서 정의되는 객체는 드론(200)의 착륙 시에 드론(200)과 충돌할 수 있는 또는 드론(200)의 안전한 착륙을 방해할 수 있는 위험 객체로서 사람, 개, 고양이, 자동차, 오토바이 등의 객체를 포함할 수 있는데, 본 발명의 일 실시예에 따른 객체 지정 유닛(132)은 이러한 객체 중에서 탐지의 대상이 되는 객체를 지정할 수 있다. The object designation unit 132 may be configured to designate an object to be detected when the drone 200 lands. For example, objects defined in the present invention are dangerous objects that may collide with the drone 200 when it lands or that may interfere with the safe landing of the drone 200, such as people, dogs, cats, etc. It may include objects such as cars and motorcycles, and the object designation unit 132 according to an embodiment of the present invention can designate an object to be detected among these objects.

참고로, 객체 지정 유닛(132)에 의해 지정되는 객체는 사용자(또는 조종자)에 의해 미리 지정될 수 있거나, 또는 드론 착륙 장소의 형태, 위치, 주변위험시설 등에 기초하여 자동으로 지정될 수도 있다. 예를 들어, 후자의 객체 자동 지정의 경우, 드론(200)의 착륙 지점이 도시 건물의 옥상인 경우 탐지 대상의 객체로서 사람과 옥상 시설물(예를 들어, 안테나, 에어컨 실외기, 화분 등)이 자동으로 지정될 수 있거나, 또는 드론(200)의 착륙 지점이 고산 평야 지대인 경우 탐지 대상의 객체로서 나무 등의 삼림 자원이 자동으로 지정될 수도 있다. For reference, the object designated by the object designation unit 132 may be designated in advance by the user (or operator), or may be automatically designated based on the type, location, and surrounding hazardous facilities of the drone landing site. For example, in the case of the latter object automatic designation, if the landing point of the drone 200 is the rooftop of a city building, people and rooftop facilities (e.g., antennas, outdoor air conditioner units, flower pots, etc.) are automatically selected as objects to be detected. Alternatively, if the landing point of the drone 200 is an alpine plain area, forest resources such as trees may be automatically designated as an object to be detected.

그에 따라, 만약에 객체 지정 유닛(132)에 의해 탐지 대상의 객체로서 사람이 수동 및/또는 자동으로 지정되는 경우, 객체 탐지부(130)는 탐지 영역으로부터 사람을 탐지할 수 있고 제어부(110)는 사람이 탐지되지 않는 경우에만 드론(200)을 착륙 지점에 착륙시키도록 그 비행을 제어할 수 있다. 유사하게, 만약에 객체 지정 유닛(132)에 의해 탐지 대상의 객체로서 사람 및 자동차가 수동 및/또는 자동으로 지정되는 경우, 객체 탐지부(130)는 탐지 영역으로부터 사람 및 자동차를 탐지할 수 있고 제어부(110)는 사람 및 자동차가 탐지되지 않는 경우에만 드론(200)을 착륙 지점에 착륙시키도록 그 비행을 제어할 수 있다. Accordingly, if a person is manually and/or automatically designated as an object to be detected by the object designation unit 132, the object detection unit 130 can detect the person from the detection area and the control unit 110 Can control the flight of the drone 200 so that it lands at the landing point only when no person is detected. Similarly, if people and cars are manually and/or automatically designated as objects to be detected by the object designation unit 132, the object detection unit 130 can detect people and cars from the detection area. The control unit 110 can control the flight of the drone 200 to land at the landing point only when people and cars are not detected.

객체 탐지 유닛(133)은 탐지 영역 설정 유닛(131)에 의해 설정된 탐지 영역에서 객체 지정 유닛(132)에 의해 미리 지정된 객체를 탐지하도록 구성될 수 있다. 예를 들어, 객체의 탐지를 위해 객체 탐지 유닛(133)은 인공 지능(AI; artificial intelligence)에 기초하여 드론(200)으로부터 수신되는 촬영 영상 중에서 탐지 영역을 분석할 수 있고, 그 분석의 결과로서 탐지 영역 내에 미리 지정된 사람, 개, 고양이, 자동차 등의 객체가 존재하는지 여부를 판단할 수 있다. The object detection unit 133 may be configured to detect an object pre-designated by the object designation unit 132 in the detection area set by the detection area setting unit 131. For example, to detect an object, the object detection unit 133 may analyze the detection area among the captured images received from the drone 200 based on artificial intelligence (AI), and as a result of the analysis, It can be determined whether pre-designated objects such as people, dogs, cats, or cars exist within the detection area.

여기서, 드론(200)은 지상에 있는 객체를 위에서 아래로 촬영을 할 수 밖에 없고, 이러한 드론 촬영의 특이점을 고려하여 본 발명의 일 실시예에 따른 객체 탐지 유닛(133)은 미리 지정된 객체의 평면도 이미지에 대한 AI 학습에 기초하여 설정된 탐지 영역 내에서 미리 지정된 객체를 탐지하도록 추가로 구성될 수 있으며, 이를 위해 객체 탐지 유닛(133)에는 딥러닝 기반의 AI 학습 모듈이 추가로 구비될 수 있다. Here, the drone 200 has no choice but to photograph objects on the ground from top to bottom, and in consideration of the peculiarities of such drone photography, the object detection unit 133 according to an embodiment of the present invention provides a plan view of a pre-designated object. It may be further configured to detect a pre-designated object within a detection area set based on AI learning for the image, and for this purpose, the object detection unit 133 may be additionally equipped with a deep learning-based AI learning module.

예를 들어, 사람을 다양한 각도로 위에서 아래로 촬영한 영상 데이터가 AI 학습 데이터로서 활용될 수 있고, 이러한 AI 학습을 위해 MNIST(Modified National Institute of Standards and Technology) 데이터 세트가 구축되어 저장부(140)에 저장될 수 있으며, 이러한 MNIST 데이터 세트에는 사람을 위에서 아래로 촬영한 영상 데이터가 포함될 수 있다. For example, video data taken from top to bottom of a person at various angles can be used as AI learning data, and for such AI learning, a MNIST (Modified National Institute of Standards and Technology) data set is built and stored in the storage unit (140). ), and this MNIST data set may include image data that captures a person from top to bottom.

추가로, 구축되는 AI 학습용 MNIST 데이터 세트는 수직으로 촬영되는 사람의 다양한 형태, 예를 들어 서 있는 사람, 웅크린 사람, 쪼그려 않은 사람, 누워있는 사람, 엎드려 있는 사람 등의 다양한 각도와 크기를 갖는 데이터를 구비할 수 있고, 추가로 다양한 소지품(예를 들어, 가방, 모자, 핸드폰 등)을 소지한 다양한 형태의 데이터를 추가로 구비할 수 있으며, 그에 따라 착륙 지점에 존재하는 사람에 대한 탐지 정확도를 상당히 개선할 수 있다. In addition, the MNIST data set for AI learning that is being built is data with various angles and sizes, such as people photographed vertically, such as people standing, crouching, not crouching, lying down, and prone. can be provided, and in addition, various types of data holding various belongings (e.g., bags, hats, cell phones, etc.) can be additionally provided, thereby increasing the detection accuracy of people present at the landing site. It can be improved considerably.

이러한 AI 학습의 결과로서 객체 탐지 유닛(133)은 설정된 탐지 영역으로부터 미리 지정된 객체를 탐지할 수 있고, 그 탐지 결과에 기초하여 제어부(110)는 착륙 지점에서의 드론(200)의 착륙을 제어할 수 있다. As a result of this AI learning, the object detection unit 133 can detect a pre-designated object from a set detection area, and based on the detection result, the control unit 110 can control the landing of the drone 200 at the landing point. You can.

객체 표시 유닛(134)은 탐지된 객체를 표시하도록 구성될 수 있다. 객체 표시 유닛(134)은 시각적으로(예를 들어, 탐지된 객체에 바운딩 박스 처리하면서 '사람' 또는 '강아지' 등의 텍스트를 함께 표시할 수 있음) 및/또는 청각적으로(예를 들어, '사람 탐지' 또는 '강아지 탐지' 등을 사운드로 표시할 수 있음) 탐지된 객체를 표시하도록 구성될 수 있고, 시각적 표시의 경우 객체 표시 유닛(134)에 구비된 디스플레이 유닛(미도시)을 통해 탐지된 객체가 시각적으로 표시될 수 있다. Object display unit 134 may be configured to display detected objects. The object display unit 134 may display text such as 'person' or 'dog' visually (for example, processing a bounding box on the detected object) and/or audibly (for example, 'Person detected' or 'Dog detected' can be displayed by sound) and can be configured to display the detected object, and in the case of visual display, through a display unit (not shown) provided in the object display unit 134. Detected objects may be displayed visually.

그에 따라, 드론의 조종자는 디스플레이 유닛에 표시되는 객체를 확인하면서 드론(200)의 착륙 제어를 모니터링할 수 있고, 그에 따라 만약에 객체 탐지 유닛(133)에 의한 객체 탐지가 일부 부정확하거나 오류가 있는 경우(예를 들어, 검정색 바위를 강아지로 탐지하는 경우 등) 디스플레이 유닛의 화면을 확인하면서 직접 드론(200)의 착륙 제어를 구현할 수도 있다. Accordingly, the drone operator can monitor the landing control of the drone 200 while checking the object displayed on the display unit, and accordingly, if the object detection by the object detection unit 133 is partially inaccurate or has an error. In some cases (for example, when detecting a black rock as a dog, etc.), landing control of the drone 200 may be implemented directly while checking the screen of the display unit.

참고로, 탐지된 객체를 시각적으로 표시하기 위한 디스플레이 유닛은 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display) 등으로 구현될 수 있다. For reference, display units for visually displaying detected objects include Liquid Crystal Display (LCD), Thin Film Transistor-Liquid Crystal Display (TFT LCD), and Organic Light-Emitting Diode (Organic Light-Emitting Diode). Diode, OLED), flexible display, 3D display, etc.

이와 관련하여, 본 발명의 추가 실시예에 따르면, 탐지된 객체에 관한 정보가 사용자 단말(미도시)에 추가로 송신될 수 있다. 예를 들어, 드론 조종자가 드론 착륙 제어 장치(100)에 부재한 경우 탐지된 객체에 관한 정보가 드론 조종자가 소유하는 사용자 단말에 송신될 수 있고, 이 사용자 단말은 드론(200)을 직접 또는 드론 착륙 제어 장치(100)를 통해 드론(200)을 제어할 수 있도록 구성되며, 그에 따라 사용자 단말의 화면을 보면서 착륙 지점에 대한 드론(200)의 안전한 착륙을 모니터링 및 제어할 수 있다. In this regard, according to a further embodiment of the present invention, information about the detected object may be additionally transmitted to the user terminal (not shown). For example, if the drone operator is absent from the drone landing control device 100, information about the detected object may be transmitted to a user terminal owned by the drone operator, and this user terminal may use the drone 200 directly or It is configured to control the drone 200 through the landing control device 100, and accordingly, the safe landing of the drone 200 at the landing point can be monitored and controlled while looking at the screen of the user terminal.

저장부(140)는 드론(200)의 착륙을 위한 임의의 데이터, 신호 등이 저장될 수 있다. 예를 들어, 저장부(140)에는 드론(200)에 관한 식별 정보, 비행 정보, 착륙 정보, 드론(200)에 의해 촬영되는 영상 데이터, 탐지 영역에 관한 정보, 탐지 개시 고도에 관한 정보, 탐지 객체에 관한 정보, 객체 탐지를 위한 학습용 영상 데이터, 등이 저장될 수 있다. 특히, 탐지 영역, 탐지 개시 고도(예를 들어, 20m 등), 탐지 객체 종류(예를 들어, 사람, 개, 고양이, 자동차 등), 탐지 종료 고도(예를 들어, 3m 등) 등을 설정할 수 있도록 하는 설정 파일(setting file)이 생성되어 저장부(140)에 저장될 수 있고, 탐지 영역 설정 유닛(131)에 의한 탐지 영역의 설정 시에 그리고 객체 지정 유닛(132)에 의한 객체의 사전 지정 시에 저장부(140)에 저장된 정보가 활용될 수 있다. The storage unit 140 may store arbitrary data, signals, etc. for landing of the drone 200. For example, the storage unit 140 includes identification information about the drone 200, flight information, landing information, image data captured by the drone 200, information about the detection area, information about the detection start altitude, and detection information. Information about objects, training image data for object detection, etc. may be stored. In particular, you can set the detection area, detection start altitude (e.g., 20 m, etc.), detection object type (e.g., person, dog, cat, car, etc.), and detection end altitude (e.g., 3 m, etc.). A setting file may be created and stored in the storage unit 140, and upon setting the detection area by the detection area setting unit 131 and pre-specifying the object by the object designation unit 132. Information stored in the storage unit 140 may be utilized.

참고로, 저장부(140)는 통상의 기술자에게 알려진 바와 같이, HDD(Hard Disk Drive), ROM(Read Only Memory), RAM(Random Access Memory), EEPROM(Electrically Erasable and Programmable Read Only Memory), 플래시 메모리(flash memory), CF(Compact Flash) 카드, SD(Secure Digital) 카드, SM(Smart Media) 카드, MMC(Multimedia) 카드 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 다양한 형태의 저장 장치로 구현될 수 있으며, 도 1에 도시된 바와 같이 드론 착륙 제어 장치(100)의 내부에 구비될 수 있거나 또는 별도의 외부 장치에 구비될 수 있다. 또는, 저장부(140)가 인터넷 상에서 저장 기능을 수행하는 웹 스토리지(web storage)로 대체될 수도 있다. For reference, as known to those skilled in the art, the storage unit 140 includes a hard disk drive (HDD), read only memory (ROM), random access memory (RAM), electrically erasable and programmable read only memory (EEPROM), and flash. Various types of storage devices capable of inputting and outputting information, such as flash memory, Compact Flash (CF) card, Secure Digital (SD) card, Smart Media (SM) card, Multimedia (MMC) card, or Memory Stick. It may be implemented as, and may be provided inside the drone landing control device 100 as shown in FIG. 1 or may be provided in a separate external device. Alternatively, the storage unit 140 may be replaced with web storage that performs a storage function on the Internet.

드론(200)은 무선전파유도에 의해 비행 및 조종이 가능한 임의의 무인항공기를 포함할 수 있고, 자율 비행을 하거나 또는 지상의 드론 조종기(또는 이와 연결된 사용자 단말)에 의해 수동 비행하도록 구성될 수 있다. 예를 들어, 자율 비행의 경우 드론(200)은 GPS 기반으로 착륙 지점을 향해 자율 비행하도록 구성될 수 있고, 통신망(300)을 통해 드론 착륙 제어 장치(100)와 통신 가능하게 결합되어 착륙 시 촬영 영상을 드론 착륙 제어 장치(100)에 송신할 수 있으며, 드론 착륙 제어 장치(100)에 의해 탐지 영역에서 미리 지정된 객체가 탐지됨으로써 착륙 지점에서 드론(200)의 안전한 착륙이 제어될 수 있다. The drone 200 may include any unmanned aerial vehicle capable of flight and control by radio wave guidance, and may be configured to fly autonomously or to fly manually by a drone controller on the ground (or a user terminal connected thereto). . For example, in the case of autonomous flight, the drone 200 may be configured to fly autonomously toward a landing point based on GPS, and may be communicatively coupled with the drone landing control device 100 through the communication network 300 to capture images upon landing. The image can be transmitted to the drone landing control device 100, and the safe landing of the drone 200 at the landing point can be controlled by detecting a pre-designated object in the detection area by the drone landing control device 100.

본 발명의 일 실시예에 따른 드론(200)에는 지상을 향해 장착되어 지상을 촬영하도록 구성되는 카메라(210)가 구비될 수 있고, MC(220, Mission Computer, 미션 컴퓨터)는 카메라(210)로부터 촬영 영상을 받아 이를 지상의 드론 착륙 제어 장치(100)에 송신할 수 있다. 참고로, 드론(200)에 장착되는 카메라(210)는 열화상 및 고화질(예를 들어, 2000만 화소 이상) 카메라로 구현될 수 있고, 그에 따라 고해상도의 촬영 영상을 드론 착륙 제어 장치(100)에 송신함으로써 사람 등의 객체 탐지 정확도와 속도를 보다 개선할 수 있다. The drone 200 according to an embodiment of the present invention may be equipped with a camera 210 mounted toward the ground and configured to photograph the ground, and the MC (220, Mission Computer) is configured to shoot the ground from the camera 210. It is possible to receive captured video and transmit it to the drone landing control device 100 on the ground. For reference, the camera 210 mounted on the drone 200 may be implemented as a thermal image and high-definition (e.g., 20 million pixel or higher) camera, and accordingly transmits high-resolution captured images to the drone landing control device 100. By transmitting to , the accuracy and speed of detecting objects such as people can be further improved.

또한, 드론(200)에는 GPS 센서, 고도 센서, 가속도 센서 등의 센서와, 모터 등의 구동부와, 조명부와, 저장부, ESC(Electronic Speed Control), FC(Flight Controller) 등이 더 구비될 수 있으나, 드론(200)의 착륙 제어와 직접적으로 관련성이 적은 다른 구성요소들에 대해서 본 단락에서는 그 기재를 생략하도록 한다. In addition, the drone 200 may be further equipped with sensors such as a GPS sensor, an altitude sensor, and an acceleration sensor, a driving unit such as a motor, a lighting unit, a storage unit, an Electronic Speed Control (ESC), and a Flight Controller (FC). However, the description of other components that are less directly related to the landing control of the drone 200 will be omitted in this paragraph.

도 3은 본 발명의 일 실시예에 따른 드론 착륙 제어 방법(S300)의 개략적인 순서도이다. Figure 3 is a schematic flowchart of a drone landing control method (S300) according to an embodiment of the present invention.

먼저, 통신부(120)는 드론(200)으로부터 촬영 영상을 수신할 수 있다(S310). 제어부(110)는 드론(200)의 이륙시부터 착륙시까지 드론(200)에 장착된 카메라(210)가 촬영하는 모든 촬영 영상을 통신부(120)가 수신하도록 제어할 수 있거나, 또는 드론(200)이 미리 설정된 고도(예를 들어, 20m 등)에 도달하였을 때부터 통신부(120)가 드론(200)의 촬영 영상을 수신하도록 제어할 수도 있으며, 이러한 영상 수신 모드를 사용자가 선택할 수 있도록 하는 인터페이스가 추가로 구비되어 제공될 수 있다. First, the communication unit 120 can receive captured images from the drone 200 (S310). The control unit 110 can control the communication unit 120 to receive all captured images captured by the camera 210 mounted on the drone 200 from takeoff to landing of the drone 200, or the drone 200 ) may control the communication unit 120 to receive captured images of the drone 200 from the time it reaches a preset altitude (e.g., 20 m, etc.), and an interface that allows the user to select such image reception mode. may be additionally provided and provided.

드론(200)이 착륙 지점의 상부에서부터 하강함에 따라, 제어부(110)는 드론(200)이 사전에 설정된 탐지 개시 고도(예를 들어, 20m 등)에 도달하였는지 여부를 판단할 수 있다(S320). 판단 결과, 드론(200)이 아직 탐지 개시 고도에 도달하지 아니한 경우(예를 들어, 드론이 지상 30m에 위치함) 제어부(110)는 드론(200)이 탐지 개시 고도에 도달할 때까지 드론(200)이 더 하강 비행하도록 제어할 수 있다. As the drone 200 descends from the top of the landing point, the control unit 110 may determine whether the drone 200 has reached a preset detection start altitude (for example, 20 m, etc.) (S320) . As a result of the determination, if the drone 200 has not yet reached the detection start altitude (for example, the drone is located 30 m above the ground), the control unit 110 controls the drone (200) until the drone 200 reaches the detection start altitude. 200) can be controlled to fly further downward.

판단 결과 드론(200)이 탐지 개시 고도에 도달한 것으로 판단되면, 제어부(110)는 객체 탐지부(130)의 동작을 활성화할 수 있고, 그에 따라 탐지 영역 설정 유닛(131)은 사전에 정의된 탐지 영역(또는 범위)을 활성화하거나 드론(200)의 카메라(210)에 의해 촬영되는 촬영 영상에서 탐지 영역을 설정할 수 있다(S330). As a result of the determination, if it is determined that the drone 200 has reached the detection start altitude, the control unit 110 may activate the operation of the object detection unit 130, and accordingly, the detection area setting unit 131 may set the detection area to a predefined level. The detection area (or range) can be activated or the detection area can be set in the captured image captured by the camera 210 of the drone 200 (S330).

드론의 촬영 영상과 비교하여 탐지 영역은 더 적은 면적을 갖도록 설정될 수 있고, 그에 따라 객체 탐지의 정확도 및 효율성이 보다 개선될 수 있다. 본 발명의 일 실시예에 따른 드론(200)의 촬영 영역(11)과, 객체의 탐지를 위한 탐지 영역(12)을 설명하기 위한 개략도가 도 4 및 도 5에 도시된다. Compared to images captured by a drone, the detection area can be set to have a smaller area, and thus the accuracy and efficiency of object detection can be further improved. Schematic diagrams illustrating the photographing area 11 of the drone 200 and the detection area 12 for detecting objects according to an embodiment of the present invention are shown in FIGS. 4 and 5.

도 4a 및 도 4b는 본 발명의 일 실시예에 따른 드론의 촬영 영역(11)과, 객체의 탐지 영역(12)을 설명하기 위한 개략도이고, 도 5는 본 발명의 일 실시예에 따른 탐지 영역을 설명하기 위한 개략도이다. FIGS. 4A and 4B are schematic diagrams illustrating the drone's imaging area 11 and the object detection area 12 according to an embodiment of the present invention, and FIG. 5 is a detection area according to an embodiment of the present invention. This is a schematic diagram to explain.

도 4a에 도시되는 바와 같이, 드론(200)은 카메라(210)를 이용하여 지상을 소정의 각도로 촬영할 수 있고 이렇게 촬영된 영상이 촬영 영역(11)으로 정의될 수 있다. 객체의 탐지를 위해 정의되는 탐지 영역(12)은 카메라(210)를 기준으로 하여 촬영 영역(11)의 각도보다 더 적은 각도로 정의되는, 즉 상하좌우 4개의 방향으로 촬영 영역(11)과 비교하여 더 적은 면적으로서 정의될 수 있다. As shown in FIG. 4A, the drone 200 can photograph the ground at a predetermined angle using the camera 210, and the image captured in this way can be defined as the photographing area 11. The detection area 12 defined for object detection is defined at an angle smaller than the angle of the shooting area 11 based on the camera 210, that is, compared with the shooting area 11 in four directions, up, down, left, and right. So it can be defined as a smaller area.

드론(200)에 설치되는 카메라(210)가 촬영하는 촬영 영역(11) 모두에 대해 객체를 탐지할 수 있으나, 특정 영역을 설정하는 방식으로 탐지 영역 설정 유닛(131)에 의해 설정되는 탐지 영역(12)에서 집중적으로 미리 지정된 객체를 탐지함으로써 객체 탐지의 효율성 및 정확도를 상당히 개선할 수 있다. 다시 말하면, 촬영 영역(11)에서 탐지 영역(12) 이외의 영역에 대해서는 객체 탐지가 수행되지 않으며, 따라서 드론의 착륙 지점에서 객체의 존재를 확인해야 할 필요가 있는 탐지 영역(12)을 최적으로 설정하는 것이 무엇보다도 중요하다. Objects can be detected in all of the shooting area 11 captured by the camera 210 installed on the drone 200, but the detection area set by the detection area setting unit 131 by setting a specific area ( In 12), the efficiency and accuracy of object detection can be significantly improved by intensively detecting pre-specified objects. In other words, object detection is not performed for areas other than the detection area 12 in the shooting area 11, and therefore the detection area 12 where it is necessary to confirm the presence of an object at the landing point of the drone is optimally selected. Setting is the most important thing.

추가로, 도 3에는 명시적으로 도시되지 않으나, 탐지 영역 설정 유닛(131)에 의해 설정된 탐지 영역(12)에 대해 사용자(즉, 조종자)가 확인하는 단계가 추가로 구현될 수 있다. 예를 들어, 탐지 영역 설정 유닛(131)에 의해 설정되는 탐지 영역(12)이 드론 착륙 제어 장치(100)에 구비되는 디스플레이를 통해 또는 사용자 단말(미도시)을 통해 드론 조종자가 확인할 수 있고, 그에 응답하여 조종자는 설정된 탐지 영역(12)을 확인하거나 또는 탐지 영역(12)의 위치, 크기 등의 조정을 요청할 수 있다. Additionally, although not explicitly shown in FIG. 3, a step of the user (i.e., the operator) confirming the detection area 12 set by the detection area setting unit 131 may be additionally implemented. For example, the detection area 12 set by the detection area setting unit 131 can be confirmed by the drone operator through a display provided in the drone landing control device 100 or through a user terminal (not shown), In response, the operator may check the set detection area 12 or request adjustment of the location, size, etc. of the detection area 12.

또한, 도 5에 도시되는 바와 같이, 탐지 영역 설정 유닛(131)에 의해 설정되는 탐지 영역(12)은 원형(도 5의 (a) 참조), 사각형(도 5의 (b) 참조), 다각형(도 5의 (c) 참조) 등 다양한 형상을 갖도록 설정될 수 있고, 여기서 본 발명의 일 실시예에 따른 탐지 영역 설정 유닛(131)은 드론 착륙 장소의 형태, 위치, 주변위험시설 등에 기초하여 탐지 영역(12)의 형상, 크기 등을 설정할 수 있다. In addition, as shown in FIG. 5, the detection area 12 set by the detection area setting unit 131 is circular (see (a) of FIG. 5), square (see (b) of FIG. 5), and polygonal. It can be set to have various shapes, such as (see (c) in FIG. 5), where the detection area setting unit 131 according to an embodiment of the present invention is based on the shape, location, and surrounding dangerous facilities of the drone landing site, etc. The shape and size of the detection area 12 can be set.

예를 들어, 도 5의 (a)에 예시적으로 도시되는 바와 같이, 착륙 지점이 원형 로터리인 경우에 탐지 영역 설정 유닛(131)은 드론(200)의 카메라(210)에 의해 촬영되는 촬영 영역(11)에서 드론의 착륙 지점이 원형 로터리임을 감지하고 그에 따라 객체 탐지를 위한 탐지 영역(12)을 원형으로 설정할 수 있다. For example, as shown by way of example in (a) of FIG. 5, when the landing point is a circular roundabout, the detection area setting unit 131 sets a shooting area captured by the camera 210 of the drone 200. In (11), it is detected that the landing point of the drone is a circular roundabout, and the detection area 12 for object detection can be set to circular accordingly.

여기서, 보다 바람직하게는, 설정되는 탐지 영역(12)의 중심점은 드론(200)의 착륙 지점에 대응 또는 실질상 대응할 수 있고, 이를 위해 탐지 영역(12)의 설정에 있어 드론(200)의 착륙 지점에 대한 GPS 정보가 활용될 수 있다. Here, more preferably, the center point of the set detection area 12 may correspond or substantially correspond to the landing point of the drone 200, and for this purpose, the landing point of the drone 200 in setting the detection area 12 GPS information about the point may be utilized.

이러한 방식으로 드론 착륙 장소의 형태, 위치, 주변위험시설 등에 기초하여 탐지 영역(12)을 가장 최적으로 가변적으로 설정하여 적용함으로써, 탐지 영역(12) 내에 존재하는 미리 지정된 객체에 대한 탐지 효율 및 정확도가 보다 개선될 수 있다. In this way, the detection area 12 is most optimally set and applied variably based on the type, location, and surrounding dangerous facilities of the drone landing site, so that the detection efficiency and accuracy for pre-designated objects existing within the detection area 12 are applied. can be further improved.

이와 같은 다양한 형상의 탐지 영역(12)을 설정하는 방식은 다양할 수 있는데, 예를 들어 도 5의 (a)에 도시되는 원형 탐지 영역(12)의 경우 그 중심점과 반지름(또는 지름)이 정의될 수 있고, 도 5의 (b)에 도시되는 사각형 탐지 영역(12)의 경우 일 꼭지점의 좌표와 대각 꼭지점의 좌표가 각각 정의될 수 있으며, 도 5의 (c)에 도시되는 다각형 탐지 영역(12)의 경우 다각형을 구성하는 꼭지점의 좌표가 각각 정의될 수 있다. There may be various ways to set the detection area 12 of various shapes. For example, in the case of the circular detection area 12 shown in (a) of Figure 5, the center point and radius (or diameter) are defined. In the case of the rectangular detection area 12 shown in (b) of FIG. 5, the coordinates of one vertex and the coordinates of the diagonal vertices can be defined, respectively, and the polygonal detection area shown in (c) of FIG. 5 ( In case 12), the coordinates of each vertex constituting the polygon can be defined.

이렇게 착륙 지점에 적합한 탐지 영역(12)이 최적으로 설정이 되면, 객체 탐지 유닛(133)은 설정된 탐지 영역(12)에서 미리 지정된 객체를 탐지할 수 있다(S340). 보다 구체적으로, 객체 탐지 유닛(133)은 탐지 영역 설정 유닛(131)에 의해 설정된 탐지 영역에서 객체 지정 유닛(132)에 의해 미리 지정된 객체를 탐지하도록 구성될 수 있다. 예를 들어, 객체의 탐지를 위해 객체 탐지 유닛(133)은 인공 지능(AI)에 기초하여 드론(200)으로부터 수신되는 촬영 영상 중에서 탐지 영역을 분석할 수 있고, 그 분석의 결과로서 탐지 영역 내에 미리 지정된 사람, 개, 고양이, 자동차 등의 객체가 존재하는지 여부를 판단할 수 있다. 여기서, 본 발명의 일 실시예에 따른 객체 탐지 유닛(133)은 미리 지정된 객체의 평면도 이미지에 대한 AI 학습에 기초하여 설정된 탐지 영역 내에서 미리 지정된 객체를 탐지하도록 추가로 구성될 수 있음은 상기한 바와 같다. When the detection area 12 suitable for the landing point is optimally set, the object detection unit 133 can detect a pre-designated object in the set detection area 12 (S340). More specifically, the object detection unit 133 may be configured to detect an object pre-designated by the object designation unit 132 in the detection area set by the detection area setting unit 131. For example, to detect an object, the object detection unit 133 may analyze the detection area among the captured images received from the drone 200 based on artificial intelligence (AI), and as a result of the analysis, the object detection unit 133 may analyze the detection area within the detection area. It can be determined whether pre-designated objects such as people, dogs, cats, cars, etc. exist. Here, the object detection unit 133 according to an embodiment of the present invention may be further configured to detect a pre-designated object within a detection area set based on AI learning for the floor plan image of the pre-designated object. It's like a bar.

이러한 AI 학습의 결과로서 객체 탐지 유닛(133)은 설정된 탐지 영역으로부터 미리 지정된 객체를 탐지할 수 있고, 그 탐지 결과에 기초하여 제어부(110)는 착륙 지점에서의 드론(200)의 착륙을 제어할 수 있다.As a result of this AI learning, the object detection unit 133 can detect a pre-designated object from a set detection area, and based on the detection result, the control unit 110 can control the landing of the drone 200 at the landing point. You can.

즉, 제어부(110)는 객체 탐지 유닛(133)에 의해 탐지 영역(12)에서 객체가 탐지되는지 여부를 판단할 수 있다(S350). 만약 탐지 영역(12)에서 객체, 예를 들어 사람이 탐지되는 경우에 제어부(110)는 드론(200)의 착륙을 중지하도록 드론(200)의 비행을 제어할 수 있고(S360) 객체 표시 유닛(134)은 탐지된 객체를 표시할 수 있다(S370). 객체 표시 유닛(134)에 의해 탐지된 객체가 시각적으로 및/또는 청각적으로 표시됨으로써 조종자는 탐지된 객체를 인지할 수 있다.That is, the control unit 110 may determine whether an object is detected in the detection area 12 by the object detection unit 133 (S350). If an object, for example, a person, is detected in the detection area 12, the control unit 110 may control the flight of the drone 200 to stop the landing of the drone 200 (S360) and the object display unit ( 134) can display the detected object (S370). The detected object is displayed visually and/or audibly by the object display unit 134 so that the operator can recognize the detected object.

착륙 지점에 객체가 존재하는 경우에는 드론을 착륙시키는 것이 위험하기 때문에, 탐지된 객체가 사람인 경우에 제어부(110)는 탐지된 사람이 안전한 지역으로 대피하라는 대피안내방송을 드론(200)의 스피커(미도시) 등을 통해 출력하도록 제어할 수 있으며(S380), 경우에 따라 드론(200)의 마이크로폰(미도시)을 통해서 착륙 지점에서 탐지되는 사람의 음성을 수신할 수도 있다. Because it is dangerous to land a drone when an object exists at the landing point, if the detected object is a person, the control unit 110 sends an evacuation announcement through the speaker of the drone 200 to evacuate the detected person to a safe area. (not shown), etc., can be controlled to output (S380), and in some cases, the voice of a person detected at the landing point can be received through the microphone (not shown) of the drone 200.

만약 객체가 탐지되지 않거나, 또는 대피안내방송을 통해 사람이 안전한 지역으로 이동하여 객체가 탐지되지 않으면, 제어부(110)는 드론을 착륙 지점에 착륙시킬 수 있다(S390). If the object is not detected, or if the object is not detected because a person moves to a safe area through an evacuation announcement, the control unit 110 may land the drone at the landing point (S390).

여기서, 착륙 지점에 대한 객체 탐지를 개시하는 탐지 개시 고도(예를 들어, 20m 등)가 미리 설정되는 것과 마찬가지로, 본 발명의 추가 실시예에 따르면 착륙 지점에 대한 객체 탐지를 종료하는 탐지 종료 고도가 또한 미리 설정될 수 있다. 예를 들어, 탐지 종료 고도가 3m로 설정이 되면, 드론(200)이 20m 고도에 진입할 때부터 객체 검출을 개시하고 객체 탐지가 없으면 드론(200)을 순차로 하강시키며, 최종적으로 3m 고도에서도 객체 탐지가 없으면 제어부(110)는 드론(200)이 착륙 지점에 착륙하도록 드론(200)의 비행을 제어할 수 있다. Here, just as the detection start altitude (e.g., 20 m, etc.) for starting object detection for the landing point is preset, according to a further embodiment of the present invention, the detection end altitude for ending object detection for the landing point is It can also be preset. For example, if the detection end altitude is set to 3m, object detection begins when the drone 200 enters an altitude of 20m, and if no object is detected, the drone 200 is descended in sequence, and finally, even at an altitude of 3m. If there is no object detection, the control unit 110 may control the flight of the drone 200 so that the drone 200 lands at the landing point.

도 6은 본 발명의 일 실시예에 따라 드론이 하강함에 따른 탐지 영역의 객체 탐지 정확도 향상을 설명하기 위한 개략도이다. Figure 6 is a schematic diagram illustrating improvement in object detection accuracy in the detection area as the drone descends according to an embodiment of the present invention.

이미 기술한 바와 같이, 객체 탐지를 위한 드론의 탐지 개시 고도(예를 들어, 20m 등)가 미리 설정될 수 있고, 드론(200)이 탐지 개시 고도에 도달한 것을 검출하면 제어부(110)는 객체 탐지부(130)의 동작을 활성화할 수 있다. As already described, the detection start altitude of the drone for object detection (e.g., 20 m, etc.) may be set in advance, and when the drone 200 detects that the detection start altitude has been reached, the control unit 110 detects the object. The operation of the detection unit 130 can be activated.

그러면, 드론(200)이 탐지 개시 고도에서부터 순차적으로 하강을 하면서 객체 탐지 유닛(133)은 탐지 영역(12) 내에서 미리 지정된 객체를 탐지하는데, 도 6에 도시되는 바와 같이 드론이 하강함에 따라 탐지 영역(12)의 픽셀 크기는 동일하게 유지될 수 있다. 예를 들어, 드론 고도와 무관하게 사각형 탐지 영역의 한 변의 길이가 300 픽셀로 유지되면 드론(200)이 하강함에 따라 탐지 영역(12)이 담고있는 실제지형거리가 점점 감소할 수 있다, 즉 드론이 하강함에 따라 실제로 탐지하는 영역은 감소하고 영상의 선명도는 증가하며, 그에 따라 객체의 크기는 커지고 보다 명확해짐으로써 객체 탐지 오류로 발생할 수 있는 불필요한 착륙 중지를 해소함과 동시에 객체 탐지의 정확도가 보다 개선될 수 있다. Then, as the drone 200 sequentially descends from the detection start altitude, the object detection unit 133 detects a pre-designated object within the detection area 12. As shown in FIG. 6, the drone detects as it descends. The pixel size of area 12 may remain the same. For example, if the length of one side of the rectangular detection area is maintained at 300 pixels regardless of the drone altitude, the actual terrain distance contained in the detection area 12 may gradually decrease as the drone 200 descends, that is, the drone As this descends, the actual detection area decreases and the clarity of the image increases. As a result, the object becomes larger and clearer, eliminating unnecessary landing stops that may occur due to object detection errors and improving the accuracy of object detection. It can be.

이와 관련하여, 본 발명의 추가 실시예에 따르면, 드론(200)이 하강함에 따라 탐지 영역(12)의 픽셀 사이즈가 변화, 예를 들어 증가하도록 구현될 수도 있다. 일 예로, 탐지 개시 고도(예를 들어, 20m 등)에서는 탐지 영역(12) 내에 객체가 완전하게 포함되는 것으로 탐지되었지만 드론(200)이 하강하여 객체와의 거리가 증가함에 따라 탐지 영역(12) 내에 객체가 완전하게 포함되지 않는 경우(예를 들어, 탐지 영역(12)의 경계에 객체가 걸치는 경우 등), 탐지 영역 설정 유닛(131)은 탐지된 객체가 탐지 영역(12) 내에서 탐지된 것으로 판단할 수 있다. In this regard, according to a further embodiment of the present invention, the pixel size of the detection area 12 may be implemented to change, for example, increase, as the drone 200 descends. For example, at the detection start altitude (e.g., 20 m, etc.), the object was detected to be completely contained within the detection area 12, but as the drone 200 descends and the distance to the object increases, the detection area 12 If the object is not completely contained within (e.g., the object straddles the border of the detection area 12, etc.), the detection area setting unit 131 determines whether the detected object is detected within the detection area 12. It can be judged that

또한, 도 6에서는 드론(200)이 하강하면서 탐지 영역(12)의 형상이 동일하게 유지되는 구성을 예시로 기술하고 있으나, 본 발명의 추가 실시예에 따르면 드론(200)이 하강하면서 보다 정밀하게 관측되는 착륙 지점의 형태, 위치, 주변위험시설 등에 기초하여 탐지 영역 설정 유닛(131)은 탐지 영역(12)의 형상을 변화시키도록 추가로 구성될 수 있다. 예를 들어, 고도 20m에서는 탐지 영역(12)이 사각형 형상으로 설정되고, 드론(200)이 하강함에 따라 고도 10m에서는 탐지 영역(12)이 원형 형상으로 설정될 수도 있다. In addition, in Figure 6, a configuration in which the shape of the detection area 12 remains the same as the drone 200 descends is described as an example, but according to an additional embodiment of the present invention, the drone 200 descends with more precision. The detection area setting unit 131 may be further configured to change the shape of the detection area 12 based on the observed shape, location, and surrounding hazardous facilities of the landing site. For example, at an altitude of 20 m, the detection area 12 may be set to a square shape, and as the drone 200 descends, the detection area 12 may be set to a circular shape at an altitude of 10 m.

도 7은 본 발명의 일 실시예에 따른 탐지 영역의 가변적 설정(또는 이동)을 설명하기 위한 개략도이다. 도시되는 바와 같이, 객체 탐지 유닛(133)에 의해 탐지 영역(12)에서 객체(20)가 인식되면, 드론(200)이 하강함에 따라 탐지 영역 설정 유닛(131)은 인식된 객체를 트랙킹(tracking)하여 탐지 영역(12)을 설정할 수 있다, 즉 인식된 객체가 중심에 배치되도록 탐지 영역(12)의 위치를 이동시킬 수 있다. Figure 7 is a schematic diagram illustrating variable setting (or movement) of a detection area according to an embodiment of the present invention. As shown, when the object 20 is recognized in the detection area 12 by the object detection unit 133, the detection area setting unit 131 tracks the recognized object as the drone 200 descends. ), the detection area 12 can be set, that is, the position of the detection area 12 can be moved so that the recognized object is placed in the center.

도 7의 (b)에 도시되는 바와 같이 객체(20)가 탐지 영역(12)의 코너 부분에서 탐지되는 경우에 탐지 영역(12)을 고정한 상태로 드론(200)이 계속 하강하면 객체(20)가 탐지 영역(12)을 이탈하는 문제가 발생할 수 있다. 이를 해결하기 위해, 도 7의 (c)에 도시되는 바와 같이, 인식된 객체를 트랙킹하도록 탐지 영역(12)의 위치를 가변적으로 이동시킴으로써 객체 탐지의 정확도를 또한 상당히 개선할 수 있다. As shown in (b) of FIG. 7, when the object 20 is detected at the corner of the detection area 12 and the drone 200 continues to descend while the detection area 12 is fixed, the object 20 A problem may occur where the sensor leaves the detection area 12. To solve this, as shown in (c) of FIG. 7, the accuracy of object detection can also be significantly improved by variably moving the position of the detection area 12 to track the recognized object.

또한, 도 7에서는 명시적으로 도시되지 않으나, 탐지 개시 고도(예를 들어, 20m 등)에서 상호 이격된 복수의 객체가 인식되는 경우, 드론(200)이 하강함에 따라 탐지 영역 설정 유닛(131)은 인식된 복수의 객체 각각에 대응하는 복수의 탐지 영역(12)을 설정하도록 추가로 구성될 수 있다. 복수의 탐지 영역(12)에 대한 객체 탐지는 개별적으로 또는 독립적으로 구현될 수 있고, 그에 따라 드론(200)이 착륙하고자 하는 착륙 지점에 복수의 객체가 존재하는 경우에도 복수의 객체 모두를 누락이 없이 정확하게 검출함으로써 보다 안전하게 드론 착륙을 구현할 수 있다. In addition, although not explicitly shown in FIG. 7, when a plurality of objects spaced apart from each other are recognized at the detection start altitude (e.g., 20 m, etc.), as the drone 200 descends, the detection area setting unit 131 may be further configured to set a plurality of detection areas 12 corresponding to each of the plurality of recognized objects. Object detection for the plurality of detection areas 12 may be implemented individually or independently, and accordingly, even if a plurality of objects exist at the landing point where the drone 200 wants to land, all of the plurality of objects may be missed. By accurately detecting drones, drone landings can be implemented more safely.

상술한 바와 같이, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 드론 촬영 영상에 기초하여 사전에 지정된 객체를 탐지하고 그 결과에 기초하여 드론의 착륙을 구현함으로서 보다 안전하게 드론을 착륙 지점에 착륙시킬 수 있다. As described above, according to the drone landing control device and method according to an embodiment of the present invention, a pre-designated object is detected based on the drone captured image and the drone is landed based on the result, thereby making the drone safer. can land at the landing site.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 촬영 영역 내에서 객체를 탐지할 탐지 영역을 설정함으로써 객체 탐지의 효율을 보다 개선할 수 있다.In addition, according to the drone landing control apparatus and method according to an embodiment of the present invention, the efficiency of object detection can be further improved by setting a detection area for detecting objects within the shooting area.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 착륙 지점의 형태, 위치, 주변위험시설 등에 따라 탐지 영역을 가변적으로 설정하도록 함으로써 착륙 지점에 대한 능동적인 대처가 가능하고 그에 따라 객체 탐지의 정확도 및 효율을 보다 개선할 수 있다. In addition, according to the drone landing control device and method according to an embodiment of the present invention, active response to the landing point is possible by variably setting the detection area according to the shape, location, and surrounding dangerous facilities of the landing point, Accordingly, the accuracy and efficiency of object detection can be further improved.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 탐지된 객체가 사람인 경우 소정의 대피 방송을 송출함으로써 보다 안전하게 드론을 착륙 지점에 착륙시킬 수 있다. In addition, according to the drone landing control apparatus and method according to an embodiment of the present invention, when the detected object is a person, a predetermined evacuation broadcast is transmitted, so that the drone can land at the landing point more safely.

또한, 본 발명의 일 실시예에 따른 드론 착륙 제어 장치 및 그 방법에 의하면, 드론이 탐지 개시 고도로부터 지상으로 하강함에 따라 탐지되는 객체의 위치, 개수 등에 기초하여 탐지 영역의 위치, 크기, 개수 등을 가변적으로 설정함으로써 객체 탐지의 정확도 및 효율을 보다 개선할 수 있다.In addition, according to the drone landing control device and method according to an embodiment of the present invention, as the drone descends from the detection start altitude to the ground, the location, size, number, etc. of the detection area are changed based on the location and number of detected objects. By variably setting , the accuracy and efficiency of object detection can be further improved.

한편, 본 명세서에 기재된 다양한 실시예들은 하드웨어, 미들웨어, 마이크로코드, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 실시예들은 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 프로세서(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그램어블 논리 디바이스(PLD)들, 필드 프로그램어블 게이트 어레이(FPGA)들, 프로세서들, 컨트롤러들, 마이크로컨트롤러들, 마이크로프로세서들, 여기서 제시되는 기능들을 수행하도록 설계되는 다른 전자 유닛들 또는 이들의 조합 내에서 구현될 수 있다.Meanwhile, various embodiments described in this specification may be implemented by hardware, middleware, microcode, software, and/or a combination thereof. For example, various embodiments may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), processors, controllers, microcontrollers, microprocessors, other electronic units designed to perform the functions presented herein, or a combination thereof.

또한, 예를 들어, 다양한 실시예들은 명령들을 포함하는 컴퓨터-판독가능한 매체에 수록되거나 인코딩될 수 있다. 컴퓨터-판독가능한 매체에 수록 또는 인코딩된 명령들은 프로그램 가능한 프로세서 또는 다른 프로세서로 하여금 예컨대, 명령들이 실행될 때 방법을 수행하게끔 할 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체를 포함하며, 컴퓨터 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 예를 들어, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학 디스크 저장 매체, 자기 디스크 저장 매체 또는 기타 자기 저장 디바이스를 포함할 수 있다.Additionally, for example, various embodiments may be encoded or embodied in a computer-readable medium containing instructions. Instructions contained or encoded in a computer-readable medium may cause a programmable processor or other processor to perform a method when the instructions are executed, for example. Computer-readable media includes computer storage media, which may be any available media that can be accessed by a computer. For example, such computer-readable media may include RAM, ROM, EEPROM, CD-ROM, or other optical disk storage media, magnetic disk storage media, or other magnetic storage devices.

이러한 하드웨어, 소프트웨어, 펌웨어 등은 본 명세서에 기술된 다양한 동작들 및 기능들을 지원하도록 동일한 디바이스 내에서 또는 개별 디바이스들 내에서 구현될 수 있다. 추가적으로, 본 발명에서 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용 가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.Such hardware, software, firmware, etc. may be implemented within the same device or within individual devices to support the various operations and functions described herein. Additionally, components, units, modules, components, etc. described as “~” in the present invention may be implemented together or individually as separate but interoperable logic devices. The description of different features for modules, units, etc. is intended to highlight different functional embodiments and does not necessarily imply that they must be realized by individual hardware or software components. Rather, functionality associated with one or more modules or units may be performed by separate hardware or software components or may be integrated within common or separate hardware or software components.

특정한 순서로 동작들이 도면에 도시되어 있지만, 이러한 동작들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 동작이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.Although operations are shown in the drawings in a particular order, it should not be understood that these operations are performed in the particular order shown, or in sequential order, or that all depicted operations need to be performed to achieve the desired results. . In some environments, multitasking and parallel processing can be advantageous. Moreover, the distinction of various components in the above-described embodiments should not be construed as requiring such a distinction in all embodiments, and the described components may generally be integrated together into a single software product or packaged into multiple software products. It must be understood that it can be done.

이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the optimal embodiments are disclosed in the drawings and specifications. Although specific terms are used here, they are used only for the purpose of explaining the present invention and are not used to limit the meaning or scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached patent claims.

11: 촬영 영역
12: 탐지 영역
20: 객체
100: 드론 착륙 제어 장치
110: 제어부
120: 통신부
130: 객체 탐지부
131: 탐지 영역 설정 유닛
132: 객체 지정 유닛
133: 객체 탐지 유닛
134: 객체 표시 유닛
140: 저장부
200: 드론
300: 통신망
1000: 드론 착륙 제어 시스템
11: Shooting area
12: Detection area
20: object
100: Drone landing control device
110: control unit
120: Department of Communications
130: Object detection unit
131: Detection area setting unit
132: Object designation unit
133: Object detection unit
134: Object display unit
140: storage unit
200: Drone
300: communication network
1000: Drone landing control system

Claims (8)

드론 착륙 제어 장치(100)로서,
드론(200)으로부터 촬영 영상을 수신하도록 구성되는 통신부(120);
상기 수신된 촬영 영상에서 상기 수신된 촬영 영상보다 더 적은 면적을 갖는 1개 또는 복수의 탐지 영역을 설정하도록 구성되는 탐지 영역 설정 유닛(131); 및 상기 설정된 1개 또는 복수의 탐지 영역에서 미리 지정된 객체를 탐지하도록 구성되는 객체 탐지 유닛(133)을 포함하는 객체 탐지부(130); 및
상기 드론(200)이 사전에 정의된 탐지 개시 고도에 도달하면 상기 객체 탐지부(130)의 동작을 활성화하고, 상기 탐지된 객체의 유무에 따라 상기 드론(200)의 착륙을 제어하도록 구성되는 제어부(110)를 포함하고,
상기 탐지 영역 설정 유닛(131)은, 드론 착륙 장소의 형태, 위치 및 주변위험시설 중 적어도 하나에 기초하여 상기 탐지 영역의 형상 및 크기를 설정하되 상기 드론(200)이 하강함에 따라 상기 탐지 영역의 픽셀 크기를 동일하게 유지하도록 추가로 구성되는,
드론 착륙 제어 장치(100).
As a drone landing control device 100,
A communication unit 120 configured to receive captured images from the drone 200;
a detection area setting unit 131 configured to set one or more detection areas in the received captured image having an area smaller than the received captured image; and an object detection unit 130 including an object detection unit 133 configured to detect a predetermined object in one or more detection areas. and
A control unit configured to activate the operation of the object detection unit 130 when the drone 200 reaches a predefined detection start altitude and control the landing of the drone 200 depending on the presence or absence of the detected object. Contains (110),
The detection area setting unit 131 sets the shape and size of the detection area based on at least one of the shape and location of the drone landing place and the surrounding dangerous facilities, and as the drone 200 descends, the detection area changes. further configured to keep the pixel size the same,
Drone landing control device (100).
삭제delete 삭제delete 제 1 항에 있어서,
상기 객체 탐지 유닛(133)은 상기 미리 지정된 객체의 평면도 이미지에 대한 AI 학습에 기초하여 상기 설정된 탐지 영역에서 상기 미리 지정된 객체를 탐지하도록 추가로 구성되는,
드론 착륙 제어 장치(100).
According to claim 1,
The object detection unit 133 is further configured to detect the pre-designated object in the set detection area based on AI learning on the floor plan image of the pre-designated object.
Drone landing control device (100).
제 1 항에 있어서,
상기 객체 탐지부(130)는, 상기 미리 지정된 객체가 탐지되면 상기 탐지된 객체를 표시하도록 구성되는 객체 표시 유닛(134)을 더 포함하는,
드론 착륙 제어 장치(100).
According to claim 1,
The object detection unit 130 further includes an object display unit 134 configured to display the detected object when the pre-designated object is detected.
Drone landing control device (100).
삭제delete 드론 착륙 제어 시스템(1000)으로서,
제 1 항에 따른 드론 착륙 제어 장치(100); 및
상기 드론 착륙 제어 장치(100)와 통신 가능하게 결합되는 드론(200)을 포함하는,
드론 착륙 제어 시스템(1000).
As a drone landing control system 1000,
Drone landing control device (100) according to claim 1; and
Comprising a drone (200) communicatively coupled to the drone landing control device (100),
Drone landing control system (1000).
드론 착륙 제어 방법으로서,
드론으로부터 촬영 영상을 수신하는 단계;
상기 수신된 촬영 영상에서 상기 수신된 촬영 영상보다 더 적은 면적을 갖는 1개 또는 복수의 탐지 영역을 설정하고, 상기 설정된 1개 또는 복수의 탐지 영역에서 미리 지정된 객체를 탐지하는 단계; 및
상기 드론이 사전에 정의된 탐지 개시 고도에 도달하면 상기 객체의 탐지 동작을 활성화하고, 상기 탐지된 객체의 유무에 따라 상기 드론의 착륙을 제어하는 단계를 포함하고,
드론 착륙 장소의 형태, 위치 및 주변위험시설 중 적어도 하나에 기초하여 상기 탐지 영역의 형상 및 크기가 설정되되 상기 드론이 하강함에 따라 상기 탐지 영역의 픽셀 크기가 동일하게 유지되는,
드론 착륙 제어 방법.
As a drone landing control method,
Receiving captured images from a drone;
Setting one or more detection areas in the received captured image having an area smaller than the received captured image, and detecting a pre-designated object in the one or more set detection areas; and
When the drone reaches a predefined detection start altitude, activating a detection operation of the object and controlling landing of the drone depending on the presence or absence of the detected object,
The shape and size of the detection area are set based on at least one of the shape, location, and surrounding dangerous facilities of the drone landing site, but the pixel size of the detection area remains the same as the drone descends.
How to control drone landing.
KR1020230041209A 2023-03-29 2023-03-29 A device for controlling drone landing and a method thereof KR102593390B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230041209A KR102593390B1 (en) 2023-03-29 2023-03-29 A device for controlling drone landing and a method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230041209A KR102593390B1 (en) 2023-03-29 2023-03-29 A device for controlling drone landing and a method thereof

Publications (1)

Publication Number Publication Date
KR102593390B1 true KR102593390B1 (en) 2023-10-25

Family

ID=88515448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230041209A KR102593390B1 (en) 2023-03-29 2023-03-29 A device for controlling drone landing and a method thereof

Country Status (1)

Country Link
KR (1) KR102593390B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019196150A (en) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 System, method, and program for identifying safe landing area, and storage medium for storing the program
KR102227740B1 (en) * 2019-07-17 2021-03-15 한국항공우주산업 주식회사 Landing Support System for Vertical Takeoff and Landing Type PAV
KR20220100768A (en) * 2021-01-08 2022-07-18 아주대학교산학협력단 Apparatus and method for controlling landing based on image learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019196150A (en) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 System, method, and program for identifying safe landing area, and storage medium for storing the program
KR102227740B1 (en) * 2019-07-17 2021-03-15 한국항공우주산업 주식회사 Landing Support System for Vertical Takeoff and Landing Type PAV
KR20220100768A (en) * 2021-01-08 2022-07-18 아주대학교산학협력단 Apparatus and method for controlling landing based on image learning

Similar Documents

Publication Publication Date Title
US11790741B2 (en) Drone based security system
US20230213931A1 (en) Unmanned Aerial Vehicle Inspection System
US9513635B1 (en) Unmanned aerial vehicle inspection system
US10298664B2 (en) Systems and methods of capturing and distributing imaging content captured through unmanned aircraft systems
JP7039880B2 (en) Takeoff / landing device, control method of takeoff / landing device, and program
US20170358212A1 (en) Anti-drone flight protection systems and methods
US20170261977A1 (en) Unmanned aircraft systems and methods to interact with specifically intended objects
US20190243356A1 (en) Method for controlling flight of an aircraft, device, and aircraft
EP3012659A2 (en) Surveying areas using a radar system and an unmanned aerial vehicle
JP2018536934A (en) Target location product delivery system and method
GB2568369A (en) Product delivery methods and systems utilizing portable unmanned delivery aircraft
US11816999B2 (en) Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
US20200150662A1 (en) Flying body, living body detection system, living body detection method, program and recording medium
JPWO2018198313A1 (en) Unmanned aerial vehicle action plan creation system, method and program
EP3868652A1 (en) Information processing system, information processing method, and program
GB2567142A (en) Delivery system
KR102593390B1 (en) A device for controlling drone landing and a method thereof
US20190310622A1 (en) Method and system to implement zonal access rights
KR20190048688A (en) Autonomous flight system using drone and method thereof
KR102162331B1 (en) Method of controlling drone shooting
US20190377945A1 (en) System, method, and program for detecting abnormality
ES1161136U (en) Disposal of detection and interception of non-tripulated aircraft (drones) (Machine-translation by Google Translate, not legally binding)
KR102664428B1 (en) An unmanned aerial vehicle for delivery with dual-LiDAR sensors
KR102512529B1 (en) Method and apparatus of operating and managing unmanned golf course
WO2023286186A1 (en) Device for dealing with suspicious aircraft, system for dealing with suspicious aircraft, method for dealing with suspicious aircraft, and program storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant