KR102199680B1 - Method and apparatus for controlling drone for autonomic landing - Google Patents

Method and apparatus for controlling drone for autonomic landing Download PDF

Info

Publication number
KR102199680B1
KR102199680B1 KR1020200062764A KR20200062764A KR102199680B1 KR 102199680 B1 KR102199680 B1 KR 102199680B1 KR 1020200062764 A KR1020200062764 A KR 1020200062764A KR 20200062764 A KR20200062764 A KR 20200062764A KR 102199680 B1 KR102199680 B1 KR 102199680B1
Authority
KR
South Korea
Prior art keywords
landing
information
drone
ground
landing area
Prior art date
Application number
KR1020200062764A
Other languages
Korean (ko)
Inventor
김용철
Original Assignee
김용철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김용철 filed Critical 김용철
Priority to KR1020200062764A priority Critical patent/KR102199680B1/en
Application granted granted Critical
Publication of KR102199680B1 publication Critical patent/KR102199680B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • B64C2201/141
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a method for controlling a drone for an autonomous landing, which comprises the following steps of: obtaining target altitude information and landing allowable condition information of a destination; obtaining image information in a direction of the ground at a target altitude of the destination in accordance with the target altitude information; determining a landing area based on the landing allowable condition information and the image information in the direction of the ground; moving the drone to a position where a line of sight (LOI) to the landing area is secured; generating a flight path based on the LOI; and controlling the landing of the drone based on the flight path. Therefore, the method for controlling a drone for an autonomous landing enables the drone to land on the determined landing area.

Description

자율 착륙을 위한 드론 제어 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING DRONE FOR AUTONOMIC LANDING}Drone control method and device for autonomous landing {METHOD AND APPARATUS FOR CONTROLLING DRONE FOR AUTONOMIC LANDING}

본 발명은 자율 착륙을 위한 드론 제어 방법 및 장치에 관한 것으로, 더욱 상세하게는 영상 정보를 기반으로 착륙 영역을 결정하여 자율적으로 착륙 영역으로의 착륙을 수행하는 드론 제어 방법 및 장치에 관한 것이다.The present invention relates to a drone control method and apparatus for autonomous landing, and more particularly, to a drone control method and apparatus for autonomously performing landing to a landing area by determining a landing area based on image information.

무인항공기(Unmanned Aerial Vehicle) 또는 '드론'은 조종사가 비행체에 직접 탑승하지 않고 지상에서 원격조종, 사전 프로그램된 경로에 따라 자동 또는 반자동 형식으로 자율 비행하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체를 말한다. 드론 시스템은 이에 더하여 지상통제장비(GCS: Ground Control Station), 통신장비 및 지원 장비 등의 전체 시스템을 통칭할 수 있다.Unmanned aerial vehicles or'drones' are operated autonomously or semi-automatically according to a pre-programmed route, remotely controlled from the ground without a pilot directly boarding the vehicle, or equipped with artificial intelligence to perform tasks according to their own environmental judgment. It refers to the vehicle that performs. In addition to this, the drone system can collectively refer to the entire system such as ground control equipment (GCS), communication equipment, and support equipment.

다만, 기존의 자율 비행을 수행하는 드론의 경우 실시간으로 변할 수 있는 다양한 지면의 상태로 인하여 착륙 비행에 대해서는 조종사가 보조하거나 수동으로 조종하여야 하는 불편함이 존재하였다.However, in the case of a drone that performs autonomous flight, there is an inconvenience that a pilot must assist or manually control a landing flight due to various ground conditions that can change in real time.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 자율 착륙을 위한 드론 제어 방법을 제공하는데 있다.An object of the present invention for solving the above problems is to provide a drone control method for autonomous landing.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은 자율 착륙을 위한 드론 제어 장치를 제공하는데 있다.Another object of the present invention for solving the above problems is to provide a drone control device for autonomous landing.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법은, 도착지의 목표 고도 정보 및 착륙 허용 조건 정보를 획득하는 단계, 상기 목표 고도 정보에 따른 상기 도착지의 목표 고도에서 지면 방향의 영상 정보를 획득하는 단계, 상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하는 단계, 상기 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시키는 단계, 상기 LOI를 기반으로 비행 경로를 생성하는 단계 및 상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 단계를 포함할 수 있다.A drone control method for autonomous landing according to an embodiment of the present invention for achieving the above object includes: acquiring target altitude information and landing permit condition information of a destination, at a target altitude of the destination according to the target altitude information Acquiring image information of the ground direction, determining a landing area based on the landing allowable condition information and the image information of the ground direction, and moving the drone to a location where a line of sight (LOI) to the landing area is secured. It may include moving, generating a flight path based on the LOI, and controlling the landing of the drone based on the flight path.

상기 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 장치는, 비전 센서, 프로세서(processor) 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 상기 적어도 하나의 명령은, 도착지의 목표 고도 정보 및 착륙 허용 조건 정보를 획득하도록 실행되고, 상기 목표 고도 정보에 따른 상기 도착지의 목표 고도에서 상기 비전 센서를 이용하여 지면 방향의 영상 정보를 획득하도록 실행되고, 상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하도록 실행되고, 상기 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시키도록 실행되고, 상기 LOI를 기반으로 비행 경로를 생성하도록 실행되고, 상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하도록 실행될 수 있다.A drone control apparatus for autonomous landing according to an embodiment of the present invention for achieving the other object includes a vision sensor, a processor, and a memory in which at least one command executed through the processor is stored. And, the at least one command is executed to obtain target altitude information and landing allowable condition information of the destination, and acquires ground direction image information using the vision sensor at the target altitude of the destination according to the target altitude information It is executed to determine the landing area based on the landing allowable condition information and the image information of the ground direction, and is executed to move the drone to a position where the LOI (Line Of Sight) to the landing area is secured. , It is executed to generate a flight path based on the LOI, and may be executed to control the landing of the drone based on the flight path.

본 발명에 따르면, 드론이 도착지의 실시간 상태를 판단하여 자율적으로 착륙 영역을 결정하고, 결정한 착륙 영역으로 착륙을 수행할 수 있다.According to the present invention, a drone can autonomously determine a landing area by determining a real-time state of a destination and perform landing to the determined landing area.

본 발명에 따르면, 영상 정보를 기반으로 장애물을 탐지할 수 있으며, 회피 비행 경로를 생성하여 회피 비행을 수행할 수 있다.According to the present invention, an obstacle may be detected based on image information, and an evasion flight path may be generated to perform an evasion flight.

본 발명에 따르면, 사용자의 조종 숙련도와 무관하게 드론을 안전하게 착륙시킬 수 있다.According to the present invention, it is possible to safely land a drone regardless of the user's control skill.

도 1은 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 각 단계를 간략히 나타낸다.
도 3은 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 장치의 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 순서도이다.
1 is a conceptual diagram of a drone control method for autonomous landing according to an embodiment of the present invention.
2 schematically shows each step of a method for controlling a drone for autonomous landing according to an embodiment of the present invention.
3 is a block diagram of a drone control device for autonomous landing according to an embodiment of the present invention.
4 is a flowchart of a drone control method for autonomous landing according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term "and/or" includes a combination of a plurality of related stated items or any of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 개념도이다.1 is a conceptual diagram of a drone control method for autonomous landing according to an embodiment of the present invention.

도 1을 참조하면, 일 실시예에 따른 자율 착륙을 수행하는 드론의 동작을 간략히 설명하면, 드론은 도착지(또는 목적지)의 상공까지 비행하여 도달할 수 있으며, 상공에서 지면의 영상 정보를 획득할 수 있고, 지면의 영상 정보로부터 착륙 영역을 결정하여 착륙 영역으로 착륙할 수 있다. Referring to FIG. 1, briefly explaining the operation of a drone performing autonomous landing according to an embodiment, the drone can reach the destination (or destination) by flying above, and obtain image information of the ground from above. In addition, by determining the landing area from the image information on the ground, the landing area may be landed.

즉, 일 실시예는 도착지의 특정 고도에서 카메라 또는 비전 센서를 통해 지면 방향의 영상 정보를 촬영 또는 획득할 수 있으며, 지면 방향의 영상 정보로부터 지면의 상태를 판단할 수 있다. 다시 말해, 일 실시예는 영상 정보 내의 지면들 중 일부 또는 전부가 수면 위인지, 나무 위인지, 장애물이 있는지, 지면의 경사각이 심한지를 판단할 수 있으며, 착륙 가능한 지면을 판별하여 착륙이 가능한 최적의 영역을 결정할 수 있고, 결정한 최적의 영역으로의 비행 경로를 결정하고, 이에 따라 드론을 비행 경로에 따라 착륙하도록 제어할 수 있다.That is, in an exemplary embodiment, image information in the direction of the ground may be photographed or acquired through a camera or a vision sensor at a specific altitude of the destination, and the state of the ground may be determined from the image information in the direction of the ground. In other words, in one embodiment, it is possible to determine whether some or all of the grounds in the image information are above the water surface, trees, obstacles, and whether the inclination angle of the ground is severe, and by determining the landable ground, the optimum landing is possible. It is possible to determine the area of , determine the flight path to the determined optimal area, and control the drone to land according to the flight path accordingly.

상술한 동작들에 대한 구체적인 설명은 도 2와 함께 후술하겠다.A detailed description of the above-described operations will be described later with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 각 단계를 간략히 나타낸다.2 schematically shows each step of a method for controlling a drone for autonomous landing according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 드론 제어 방법은 크기 5개의 단계들을 통해 수행될 수 있다. 여기서, 5개의 단계들은 착륙 허용 조건 설정, 이륙/비행 및 도착지 상공 도착, 최적 착륙지 결정, 착륙 비행 경로 생성 및 착륙 비행 및 착륙을 포함할 수 있다. 이하에서는 각 단계들에 대하여 구체적으로 설명하겠으나, 각 단계의 명칭은 설명의 편의를 위한 것으로 변경될 수 있고, 복수의 단계가 하나의 단계로 수행될 수 있고, 하나의 단계가 복수의 단계로 나누어져 수행될 수도 있고, 일부 단계 또는 특정 단계의 일부 동작은 생략될 수도 있다. 또한, 단계 내의 일부 동작이 다른 단계에서 수행될 수도 있다.Referring to FIG. 2, a method of controlling a drone according to an embodiment may be performed through five steps in size. Here, the five steps may include setting an allowable landing condition, taking off/flying and arriving above the destination, determining the optimum landing location, creating a landing flight path, and landing flight and landing. Hereinafter, each step will be described in detail, but the name of each step may be changed for convenience of description, a plurality of steps may be performed as one step, and one step may be divided into a plurality of steps. May be performed, and some steps or some operations of a specific step may be omitted. Also, some operations within a step may be performed in other steps.

우선, 착륙 허용 조건 설정 단계에서는 사용자로부터 착륙 허용 조건 정보 및 도착지 목표 고도 정보를 획득할 수 있다. 여기서, 착륙 허용 조건 정보는 드론의 형태 정보, 착륙 영역 탐색 범위 정보, 착륙 영역의 상태 조건 정보, 우선 순위 정보, 탐색 고도 정보 및 선회 반경 정보 중 적어도 하나를 포함할 수 있다. First, in the landing allowable condition setting step, landing allowable condition information and destination target altitude information may be obtained from the user. Here, the landing allowance condition information may include at least one of drone type information, landing area search range information, landing area condition condition information, priority information, search altitude information, and turning radius information.

여기서, 드론의 형태 정보는 3차원 형태 정보라고 나타낼 수도 있으며, 드론의 크기 정보를 포함할 수 있다. 일 실시예는 드론의 비행 경로, 후술할 회피 비행 경로 또는 착륙 영역을 결정 또는 생성할 때에 이러한 정보를 이용할 수 있다.Here, the shape information of the drone may be expressed as 3D shape information, and may include information about the size of the drone. An embodiment may use this information when determining or generating a flight path of a drone, an evasive flight path or a landing area to be described later.

착륙 영역 탐색 범위 정보는 착륙 허용 범위라고 불릴 수도 있으며, 도착지가 지면의 상태 불량으로 인하여 착륙이 적합하지 않은 경우, 다른 착륙 영역을 탐색하는 범위 또는 면적에 대한 정보를 나타낼 수 있다. 예를 들어, 착륙 영역 탐색 범위 정보는 원형 또는 설정에 따라 다른 형태로 결정될 수 있으며, 원형인 경우 도착지를 기준으로 반경 50m로 나타낼 수 있다. 예를 들어, 착륙 영역 탐색 범위 정보는 단계 별로 구분되어 설정될 수도 있다. 즉, 도착지를 기준으로 반경 25m를 우선 탐색하고, 이 범위 내에 적합한 착륙 영역이 없는 경우, 반경 50m로 확대하여 추가로 탐색할 수도 있다. 다만, 이는 착륙 영역 탐색 범위를 넓힌 후, 복수의 착륙 가능한 영역이 있는 경우, 후술할 우선 순위 정보에 따라 최적의 착륙 영역을 결정함으로써 동일 또는 유사한 기능을 제공할 수도 있다.The landing area search range information may be referred to as a landing allowable range, and may indicate information on a range or area for searching another landing area when landing is not appropriate due to poor ground conditions. For example, the landing area search range information may be determined in a circle or in another form according to a setting, and in the case of a circle, it may be expressed as a radius of 50 m based on the destination. For example, the landing area search range information may be divided and set for each step. That is, a radius of 25m is first searched based on the destination, and if there is no suitable landing area within this range, it may be expanded to a radius of 50m to further search. However, this may provide the same or similar function by expanding the landing area search range and determining an optimal landing area according to priority information to be described later when there are a plurality of landable areas.

여기서, 착륙 영역의 상태 조건 정보는 착륙 불허 조건 정보라고 불릴 수도 있으며, 드론의 안전에 관련된 기본 조건 정보 및/또는 드론의 특정 미션에 관련된 특수 조건 정보를 포함할 수 있다. 예를 들어, 기본 조건 정보는 수면 위인지 여부, 나무 위인지 여부, 주변에 이동하는 장애물의 유무 또는 도착지의 경사 각도 등에 관한 정보를 포함할 수 있다. 또한, 특수 조건 정보는 도착지가 주변보다 낮은/높은 위치(고도)인지 여부 또는 은폐/엄폐가 불가능한지 여부 등에 관한 정보를 포함할 수 있다.Here, the state condition information of the landing area may be referred to as landing disallow condition information, and may include basic condition information related to the safety of the drone and/or special condition information related to a specific mission of the drone. For example, the basic condition information may include information on whether it is on the surface of the water, whether it is on a tree, whether there is an obstacle moving around, or an inclination angle of the destination. In addition, the special condition information may include information on whether the destination is a lower/higher position (altitude) than the surroundings or whether concealment/coverage is impossible.

여기서, 우선 순위 정보는 착륙 영역 탐색 범위 정보에 따른 탐색 범위 내에 착륙 가능한 영역이 복수 개가 있는 경우, 이 중 최적의 착륙 영역을 도출하기 위한 우선 순위에 대한 정보를 나타낼 수 있다. 예를 들어, 우선 순위 정보는 도착지의 위치 정보로부터 가장 가까운 거리에 위치를 우선하는 정보 또는 가장 경사가 완만한 영역을 우선시하는 정보 등을 포함할 수 있으나, 이는 설명에 따라 달라질 수 있으므로, 이에 한정되는 것은 아니다.Here, the priority information may indicate information on priority for deriving an optimal landing area from among a plurality of landable areas within the search range according to the landing area search range information. For example, the priority information may include information that prioritizes the location at the nearest distance from the location information of the destination, or information that prioritizes the region with the gentlest slope, but this may vary according to the description, so limited to this. It does not become.

탐색 고도 정보는 후술할 LOI(Light Of Sight)를 확보하는 과정에서 고도를 변경하는데 이용되는 정보를 나타낼 수 있으며, 선회 반경 정보도 후술할 LOI를 확보하는 과정에서 선회하는데 이용되는 정보를 나타낼 수 있다. 즉, 드론은 후술할 LOI 확보 과정에서 탑색 고도 정보를 기반으로 고도를 변경하며 LOI를 확보하거나 선회 반경 정보를 기반으로 선회 비행을 수행하며 LOI를 확보할 수 있다. 다만, LOI는 다른 방법을 통해서도 확보될 수도 있다.The search altitude information may indicate information used to change the altitude in the process of securing a light of sight (LOI) to be described later, and the turning radius information may also indicate information used to turn in the process of securing an LOI, which will be described later. . That is, the drone may change the altitude based on the top color altitude information in the process of securing the LOI, which will be described later, and secure the LOI or perform a turning flight based on the turning radius information to secure the LOI. However, the LOI can also be secured through other methods.

예를 들어, 사용자는 드론 시스템 관리자 또는 드론 조종사를 나타낼 수 있으며, 상기 착륙 허용 조건 정보 및 도착지 목표 고도 정보는 드론의 비행이 시작되기 전에 입력 또는 설정될 수 있다. 다만, 이는 드론의 비행 중에 추가로 획득되거나 획득된 정보가 변경될 수 있으므로, 비행 시작 전에 설정되는 것에 한정되는 것은 아니다.For example, the user may represent a drone system administrator or a drone pilot, and the landing allowance condition information and destination target altitude information may be input or set before the flight of the drone begins. However, this is not limited to being set before the start of the flight, since additionally acquired or acquired information may be changed during the flight of the drone.

이륙/비행 및 도착지 상공 도착 단계에서는 드론이 도착지의 목표 고도 정보에 따른 도착지의 목표 고도까지 비행을 수행할 수 있다. 여기서, 드론은 위성 항법, 관성 항법, 비전 기반 항법 또는 조종사에 의한 조정 등을 다양한 방법을 통해 비행을 수행할 수 있다. 또한, 이를 위해 드론은 GNSS(Global Navigation Satellite System) 모듈, GPS(Global Positioning System) 모듈 및 IMU(Inertial Measurement Unit)를 탑재할 수 있다.In the take-off/flight and arrival stage above the destination, the drone can fly to the destination altitude according to the destination altitude information. Here, the drone can fly through various methods such as satellite navigation, inertial navigation, vision-based navigation, or adjustment by a pilot. In addition, for this purpose, the drone may be equipped with a Global Navigation Satellite System (GNSS) module, a Global Positioning System (GPS) module, and an Inertial Measurement Unit (IMU).

최적 착륙지 결정 단계에서는 도착의 목표 고도에서 지면 방향의 영상 정보를 촬영 또는 획득할 수 있으며, 이를 기반으로 착륙 영역을 결정할 수 있다. 여기서, 일 실시예는 영상 정보를 획득하기 위해 카메라 또는 비전 센서를 이용할 수 있으며, 미리 머신 러닝을 통해 학습을 수행한 지면 상태 판별 모델을 기반으로 획득한 영상 정보로부터 지면 상태를 판단하고, 이를 기반으로 착륙 영역을 결정할 수 있다. In the step of determining the optimum landing location, image information of the ground direction may be photographed or acquired at the target altitude of arrival, and the landing area may be determined based on this. Here, in one embodiment, a camera or a vision sensor may be used to acquire image information, and a ground state is determined from the acquired image information based on a ground state determination model that has been learned through machine learning in advance, and Can determine the landing area.

다시 말해, 일 실시예는 지면 방향의 영상 정보를 상공에서 직접 획득하여 지면의 상태를 판단할 수 있다. 이는 지면의 상태가 실시간으로 변화할 수 있음에 따라 예측한 상태와 다를 수 있으므로, 적응적으로 지면의 상태를 판단하기 위한 것이다. 예를 들어, 지면은 여름철에 주변 수목이 성장할 수 있고, 강우로 인하여 표면이 젖을 수 있고, 동물이 서실할 수도 있다. 또한, 지면은 겨울철에 눈이 쌓일 수 있고, 얼음으로 인하여 표면의 경사 각도가 변할 수 있다. 또한, 지면은 이러한 계절에 따른 변화 외에도 유동 인구가 존재할 수 있고, 전선이 설치될 수도 있는 등 다양한 요인으로 인하여 변화될 수 있다. In other words, according to an exemplary embodiment, the state of the ground may be determined by directly acquiring image information in the direction of the ground from above. This is to adaptively determine the state of the ground because the state of the ground may be different from the predicted state as the state of the ground may change in real time. For example, on the ground, surrounding trees may grow in summer, the surface may get wet due to rainfall, and animals may stand. In addition, snow may accumulate on the ground in winter, and the inclination angle of the surface may change due to ice. In addition, the ground may change due to various factors, such as a floating population may exist in addition to such seasonal changes, and electric wires may be installed.

또한, 일 실시예에 따른 지면 상태 판별 모델은 머신 러닝을 통해 미리 학습될 수 있으며, 다양한 머신 러닝 기법이 이용될 수 있으므로, 머신 러닝 기법의 종류는 한정되지 않는다. 즉, 지면에 대한 학습 영상 정보를 기반으로 지면 상태 판별 모델을 미리 학습할 수 있으며, 이러한 모델을 기반으로 지면의 영상 정보로부터 지면의 상태를 판단할 수 있다. 여기서, 지면 상태 판별 모델은 고도 별 학습이 수행될 수도 있다. 이 경우, 미리 설정된 고도에 따라 복수의 지면 상태 판별 모델이 존재할 수 있으며, 드론의 현재 고도에 따라 대응되는 지면 상태 판별 모델이 지면의 상태를 판단하는데 이용될 수 있다. 다시 말해, 미리 설정된 복수의 고도(예를 들어, 150m, 100m, 50m 등)에 대응하는 복수의 지면 상태 판별 모델들이 각 고도에 따른 학습 영상 정보를 기반으로 학습되고, 드론의 고도에 대응되는 지면 상태 판별 모델이 지면의 상태를 판단하는데 이용될 수 있다.In addition, since the ground state determination model according to an embodiment may be pre-trained through machine learning and various machine learning techniques may be used, the type of machine learning technique is not limited. That is, the ground state determination model may be pre-trained based on the learning image information about the ground, and the ground state may be determined from the image information of the ground based on this model. Here, the ground state determination model may be trained by altitude. In this case, a plurality of ground state determination models may exist according to a preset altitude, and a ground state determination model corresponding to the current altitude of the drone may be used to determine the state of the ground. In other words, a plurality of ground condition discrimination models corresponding to a plurality of preset altitudes (for example, 150m, 100m, 50m, etc.) are learned based on the learning image information according to each altitude, and the ground corresponding to the altitude of the drone A state determination model can be used to determine the state of the ground.

또는 일 실시예는 드론의 선회 비행 등을 통하여 서로 다른 지점에서 동일한 지면의 영상 정보를 획득할 수 있으며, 이러한 영상 정보들을 기반으로 영상의 뎁스(depth) 정보를 도출할 수 있고, 이를 통해 지면의 상태를 판단할 수도 있다.Alternatively, in one embodiment, image information of the same ground may be obtained at different points through a turning flight of a drone, etc., and depth information of the image may be derived based on such image information, and through this You can also judge the status.

일 실시예는 상술한 바에 따라 지면의 상태를 판단한 경우, 착륙 허용 조건 정보 및 지면의 상태를 기반으로 착륙 영역을 결정할 수 있다. 즉, 지면의 상태를 기반으로 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 착륙 영역을 결정할 수 있다. 여기서, 착륙 영역은 지면 방향의 영상 정보 내에서 드론이 크기 정보에 따른 드론이 착륙 가능한 영역을 나타낼 수 있다. According to an embodiment of the present disclosure, when the state of the ground is determined as described above, the landing area may be determined based on the landing allowable condition information and the state of the ground. That is, a landing area that satisfies the landing allowance condition according to the landing allowance condition information may be determined based on the state of the ground. Here, the landing area may indicate an area in which the drone can land according to the size information of the drone within the image information in the ground direction.

예를 들어, 일 실시예는 지면 방향의 영상 정보 내에서 드론이 착륙 가능한 영역이 복수 개인 경우, 이러한 복수 개의 영역들을 각각 착륙 영역 후보라고 나타낼 수 있으며, 복수의 착륙 영역 후보들 중 최적의 착륙 영역을 결정할 수 있다. 여기서, 최적의 착륙 영역은 상술한 우선 순위 정보를 기반으로 결정될 수 있다.For example, in an embodiment, when there are a plurality of areas in which the drone can land within the image information in the ground direction, the plurality of areas may be respectively represented as landing area candidates, and the optimal landing area among the plurality of landing area candidates You can decide. Here, the optimal landing area may be determined based on the above-described priority information.

또는 예를 들어, 일 실시예는 지면 방향의 영상 정보 내에서 드론이 착륙 가능한 영역이 존재하지 않는 경우, 드론의 고도를 높이거나 드론을 미리 설정된 방법에 따라 이동시켜 착륙 영역을 탐색하는 범위를 넓힐 수 있으며, 다시 영상 정보를 획득하고, 착륙 영역을 결정할 수 있다.Or, for example, in one embodiment, when there is no landing area within the image information of the ground direction, the range of searching the landing area is increased by increasing the altitude of the drone or moving the drone according to a preset method. The image information may be obtained again, and the landing area may be determined.

이후, 착륙 비행 경로 생성 단계에서 일 실시예는 상술한 바에 따라 결정한 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시킬 수 있다. 여기서, LOI는 현재 드론의 위치로부터 착륙 영역까지의 드론의 크기 정보를 고려한 시야 정보를 의미할 수 있으며, 최단 이동 가능한 직선 비행 경로를 위한 과정일 수 있다. Thereafter, in the step of creating a landing flight path, an embodiment may move the drone to a position where a line of sight (LOI) to the landing area determined as described above is secured. Here, the LOI may mean field-of-sight information in consideration of the size information of the drone from the location of the current drone to the landing area, and may be a process for a straight flight path capable of moving the shortest.

여기서, 일 실시예는 현재 드론의 위치에서 착륙 영역까지 LOI가 확보되는 경우, 드론을 이동시키지 않으며, 곧바로 이를 기반으로 비행 경로를 생성할 수도 있다.Here, in an embodiment, when the LOI is secured from the current position of the drone to the landing area, the drone is not moved, and a flight path may be immediately generated based on this.

다만, 일 실시예는 현재 드론이 위치에서 착륙 영역까지 LOI가 확보되지 않는 경우, 고도 변경 또는 선해 비행 등을 통하여 LOI가 확보되도록 드론을 이동시킬 수 있다. 여기서, 고도 변경은 상술한 탐색 고도 정보를 기반으로 수행될 수 있고, 선회 비행은 상술한 선회 반경 정보를 기반으로 수행될 수 있다. However, in an embodiment, when the LOI is not secured from the current drone position to the landing area, the drone may be moved to secure the LOI through altitude change or sea flight. Here, the altitude change may be performed based on the above-described search altitude information, and the turning flight may be performed based on the above-described turning radius information.

또는 예를 들어, 고도 변경 또는 선회 비행을 수행하여도 LOI가 확보되지 않는 경우, 착륙 영역을 다시 결정할 수 있다. 즉, 복수의 착륙 영역 후보들이 존재하는 경우, 다른 착륙 영역 후보를 착륙 영역으로 결정할 수 있다. 또는 다른 착륙 영역 후보가 존재하지 않는 경우, 드론을 이동시켜서 더 넓은 범위의 영상 정보를 기반으로 다시 착륙 영역 후보를 도출할 수도 있다.Or, for example, if the LOI is not secured even when the altitude change or turning flight is performed, the landing area may be determined again. That is, when there are a plurality of landing region candidates, another landing region candidate may be determined as the landing region. Alternatively, if there is no other landing area candidate, the drone may be moved to derive the landing area candidate again based on a wider range of image information.

또는 예를 들어, 드론의 크기 정보를 고려한 LOI가 확보되지 않아도 영상 정보 내의 장애물 등의 위치 정보를 고려하여 회피 비행 경로를 생성할 수 있는 경우, 이를 생성하여 착륙 비행에 이용할 수도 있다.Or, for example, even if the LOI considering the size information of the drone is not secured, if the avoidance flight path can be generated in consideration of location information such as obstacles in the image information, it may be generated and used for landing flight.

또는 예를 들어, 드론의 고도를 점차적으로 낮추며 실시간으로 지면으로의 영상 정보를 기반으로 회피 비행 경로를 생성할 수 있다. 이 경우, 고도가 달라짐에 따라 지속적으로 회피 비행 경로를 새로이 생성할 수 있으므로, 더욱 다양한 또는 효율적인 비행 경로가 생성될 수도 있다.Or, for example, it is possible to gradually lower the altitude of the drone and create an evasive flight path based on image information to the ground in real time. In this case, since it is possible to continuously generate a new avoidance flight path as the altitude changes, a more diverse or efficient flight path may be created.

마지막으로, 착륙 비행 및 착륙 단계에서는 상술한 바에 따라 생성한 비행 경로 또는 회피 비행 경로에 따라 드론의 착륙을 제어할 수 있다. 예를 들어, 일 실시예는 비행 경로에 따라 드론의 착륙 비행을 제어하는 중에도 비전 센서를 통해 실시간으로 비행 경로에 따른 영상 정보를 획득할 수도 있으며, 이를 통해 실시간으로 변경되거나 발생될 수 있은 장애물(예를 들어, 나뭇가지, 조류 등)을 감지하고 회피할 수 있다. 즉, 실시간으로 획득하는 영상 정보를 기반으로 비행 경로 내의 장애물의 존재 여부를 계속하여 판단할 수 있으며, 장애물이 생긴 경우, 영상 정보를 기반으로 회피 비행 경로를 곧바로 생성할 수 있고, 이를 기반으로 드론의 착륙 비행을 제어할 수 있다. 여기서, 회피 비행 경로는 영상 정보 내의 장애물의 위치 정보를 기반으로 생성될 수 있다.Finally, in the landing flight and landing phase, the landing of the drone may be controlled according to the flight path or the avoidance flight path created as described above. For example, one embodiment may acquire image information according to the flight path in real time through a vision sensor while controlling the landing flight of the drone according to the flight path, through which obstacles that may be changed or generated in real time ( For example, tree branches, birds, etc.) can be detected and avoided. That is, based on the image information acquired in real time, it is possible to continuously determine whether an obstacle exists in the flight path, and if an obstacle occurs, an evasive flight path can be immediately generated based on the image information, and based on this, the drone You can control the landing flight. Here, the avoidance flight path may be generated based on position information of an obstacle in the image information.

예를 들어, LOI 확보를 위한 장애물 탐지 또는 착륙 비행 시의 영상 정보 내의 장애물 탐지는 머신 러닝을 이용하여 미리 학습한 장애물 탐지 모델이 이용될 수 있으며, 장애물 탐지 모델은 장애물에 관한 학습용 영상 정보를 이용하여 학습이 수행될 수 있다. For example, an obstacle detection model learned in advance using machine learning may be used to detect an obstacle for securing an LOI or detect an obstacle in image information during a landing flight, and the obstacle detection model uses image information for learning about an obstacle. Thus, learning can be carried out.

예를 들어, 지면 상태 판별 모델 또는 장애물 탐지 모델은 드론에 탑재된 칩(chip) 또는 프로세서를 통해 제공될 수 있으나, 별도의 서버 등에서 제공될 수도 있으며, 이 경우, 드론에 탑재된 통신 모듈을 통해 영상 정보를 별도의 서버로 송신하고, 별도의 서버에서 도출한 결과 정보가 드론으로 송신될 수 있다. 다만, 이는 일 예로 구현 방식에 따라 달라질 수 있는 바, 이에 한정되는 것은 아니다.For example, a ground condition determination model or an obstacle detection model may be provided through a chip or processor mounted on a drone, but may be provided by a separate server, etc., in this case, through a communication module mounted on the drone. Image information may be transmitted to a separate server, and result information derived from a separate server may be transmitted to a drone. However, this may vary depending on the implementation method as an example, but is not limited thereto.

도 3은 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 장치의 블록 구성도이다.3 is a block diagram of a drone control device for autonomous landing according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 드론 제어 장치(300)는 적어도 하나의 프로세서(310), 메모리(320) 및 저장 장치(330)를 포함할 수 있다. 또한, 도 3에 도시하지 않았으나, 드론 제어 장치(300)는 비전 센서 모듈를 포함할 수 있으며, GNSS(Global Navigation Satellite System) 모듈, GPS(Global Positioning System) 모듈 및 IMU(Inertial Measurement Unit) 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 3, the drone control apparatus 300 according to an embodiment of the present invention may include at least one processor 310, a memory 320, and a storage device 330. In addition, although not shown in FIG. 3, the drone control device 300 may include a vision sensor module, and at least one of a Global Navigation Satellite System (GNSS) module, a Global Positioning System (GPS) module, and an Inertial Measurement Unit (IMU) It may further include.

프로세서(310)는 메모리(320) 및/또는 저장 장치(330)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(310)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(320)와 저장 장치(330)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(320)는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다.The processor 310 may execute a program command stored in the memory 320 and/or the storage device 330. The processor 310 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor in which the methods according to the present invention are performed. The memory 320 and the storage device 330 may be formed of a volatile storage medium and/or a nonvolatile storage medium. For example, the memory 320 may be composed of read only memory (ROM) and/or random access memory (RAM).

메모리(320)는 프로세서(310)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 도착지의 목표 고도 정보 및 착륙 허용 조건 정보를 획득하는 명령, 상기 목표 고도 정보에 따른 상기 도착지의 목표 고도에서 지면 방향의 영상 정보를 획득하는 명령, 상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하는 명령, 상기 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시키는 명령, 상기 LOI를 기반으로 비행 경로를 생성하는 명령 및 상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 명령을 포함할 수 있다.The memory 320 may store at least one instruction executed through the processor 310. The at least one command is a command for acquiring target altitude information and landing allowable condition information of the destination, a command for acquiring image information of the ground direction at the target altitude of the destination according to the target altitude information, the landing allowable condition information and the ground A command to determine a landing area based on image information of a direction, a command to move the drone to a position where a line of sight (LOI) to the landing area is secured, a command to create a flight path based on the LOI, and the flight It may include a command to control the landing of the drone based on the path.

예를 들어, 상기 착륙 허용 조건 정보는 상기 드론의 3차원 형태 정보, 상기 착륙 영역 탐색 범위 정보 및 상기 착륙 영역의 상태 조건 정보 중 적어도 하나를 포함할 수 있고, 상기 착륙 영역의 상태 조건 정보는 상기 드론의 안전에 관련된 기본 조건 정보 및 상기 드론의 특정 미션에 관련된 특수 조건 정보를 포함할 수 있다.For example, the landing allowance condition information may include at least one of three-dimensional shape information of the drone, information about the landing area search range, and condition condition information of the landing area, and the state condition information of the landing area is the It may include basic condition information related to the safety of the drone and special condition information related to a specific mission of the drone.

또는 상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하는 명령은, 상기 지면 방향의 영상 정보를 기반으로 지면의 상태를 도출하는 명령 및 상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 상기 착륙 영역을 결정하는 명령을 포함할 수 있다.Alternatively, the command for determining a landing area based on the landing allowable condition information and the image information of the ground direction is a command for deriving a state of the ground based on the image information of the ground direction and the landing based on the state of the ground. It may include a command for determining the landing area that satisfies the landing allowable condition according to the allowable condition information.

또는 상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 상기 착륙 영역을 결정하는 명령은, 상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 복수의 착륙 영역 후보들을 도출하는 명령 및 우선 순위 정보를 기반으로 상기 복수의 착륙 영역 후보들 중 하나를 상기 착륙 영역으로 결정하는 명령을 포함할 수 있다. 여기서, 상기 우선 순위 정보는 상기 착륙 허용 조건 정보에 포함될 수 있다.Alternatively, the command for determining the landing area that satisfies the landing allowance condition according to the landing allowance condition information based on the state of the ground, satisfies the landing allowance condition according to the landing allowance condition information based on the state of the ground. A command for deriving a plurality of landing area candidates and a command for determining one of the plurality of landing area candidates as the landing area based on priority information. Here, the priority information may be included in the landing permit condition information.

예를 들어, 상기 지면 방향의 영상 정보를 기반으로 지면의 상태를 도출하는 명령은, 머신 러닝을 통해 지면에 대한 학습 영상 정보를 기반으로 미리 학습된 지면 상태 판별 모델을 이용하여 상기 지면 방향의 영상 정보로부터 상기 지면의 상태를 도출하는 명령을 포함할 수 있다.For example, the command for deriving the state of the ground based on the image information of the ground direction is an image of the ground direction using a pre-learned ground state determination model based on the learning image information about the ground through machine learning. It may include an instruction to derive the state of the ground from the information.

또는 예를 들어, 상기 지면 상태 판별 모델은 미리 설정된 복수의 고도에 대응하는 복수의 지면 상태 판별 모델들을 포함하고, 상기 복수의 지면 상태 판별 모델들은 각각 상기 복수의 고도에 따른 학습 영상 정보를 기반으로 학습되고, 상기 지면의 상태는 상기 복수의 지면 상태 판별 모델들 중 상기 드론의 고도에 대응되는 특정 지면 상태 판별 모델을 기반으로 도출될 수 있다.Or, for example, the ground state determination model includes a plurality of ground state determination models corresponding to a plurality of preset altitudes, and the plurality of ground state determination models are each based on training image information according to the plurality of elevations. It is learned, and the state of the ground may be derived based on a specific ground state determination model corresponding to the altitude of the drone among the plurality of ground state determination models.

또는 상기 착륙 영역까지의 LOI가 확보되는 위치로 드론을 이동시키는 명령은, 고도 변경 또는 선회 비행을 통해 LOI가 확보되는 위치로 상기 드론을 이동시키는 명령을 포함할 수 있다. 여기서, 상기 고도 변경은 탐색 고도 정보를 기반으로 수행될 수 있고, 상기 선회 비행은 선회 반경 정보를 기반으로 수행될 수 있다. 또한, 상기 탐색 고도 정보 및 상기 선회 반경 정보는 상기 착륙 허용 조건 정보에 포함될 수 있다.Alternatively, the command for moving the drone to a location where the LOI to the landing area is secured may include a command to move the drone to a location where the LOI is secured through altitude change or turning flight. Here, the altitude change may be performed based on search altitude information, and the turning flight may be performed based on the turning radius information. In addition, the search altitude information and the turning radius information may be included in the landing allowance condition information.

예를 들어, 상기 착륙 영역은 복수의 착륙 영역 후보들 중 특정 착륙 영역 후보로 결정될 수 있고, 또한 예를 들어, 상기 착륙 영역까지의 LOI가 확보되는 위치로 드론을 이동시키는 명령은, 상기 고도 변경 또는 상기 선회 비행을 통해 LOI가 확보되지 않는 경우, 상기 착륙 영역은 상기 복수의 착륙 영역 후보들 중 상기 특정 착륙 영역 후보와 다른 착륙 영역 후보로 다시 결정되는 명령을 포함할 수 있다.For example, the landing area may be determined as a specific landing area candidate among a plurality of landing area candidates, and, for example, the command to move the drone to a position where the LOI to the landing area is secured may include changing the altitude or When the LOI is not secured through the turning flight, the landing area may include a command that is determined again as a landing area candidate different from the specific landing area candidate among the plurality of landing area candidates.

또는 예를 들어, 상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 명령은, 상기 비행 경로에 따른 영상 정보를 획득하는 명령, 상기 비행 경로에 따른 영상 정보를 기반으로 상기 비행 경로 내의 장애물의 존재 여부를 판단하는 명령 및 상기 비행 경로 내의 장애물이 존재하는 경우, 회피 비행 경로를 생성하고, 상기 회피 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 명령을 포함할 수 있다.Or, for example, the command for controlling the landing of the drone based on the flight path is a command for obtaining image information according to the flight path, the presence of an obstacle in the flight path based on the image information according to the flight path A command for determining whether or not there is an obstacle in the flight path, generating an avoidance flight path, and a command for controlling the landing of the drone based on the avoidance flight path.

예를 들어, 상기 회피 비행 경로는 상기 비행 경로에 따른 영상 정보 내의 상기 장애물의 위치 정보를 기반으로 생성될 수 있다.For example, the avoidance flight path may be generated based on location information of the obstacle in image information according to the flight path.

도 4는 본 발명의 일 실시예에 따른 자율 착륙을 위한 드론 제어 방법의 순서도이다.4 is a flowchart of a drone control method for autonomous landing according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 드론 제어 장치는 도착지의 목표 고도 정보 및 착륙 허용 조건 정보를 획득할 수 있다(S410). 예를 들어, 상기 착륙 허용 조건 정보는 상기 드론의 3차원 형태 정보, 상기 착륙 영역 탐색 범위 정보 및 상기 착륙 영역의 상태 조건 정보 중 적어도 하나를 포함할 수 있고, 상기 착륙 영역의 상태 조건 정보는 상기 드론의 안전에 관련된 기본 조건 정보 및 상기 드론의 특정 미션에 관련된 특수 조건 정보를 포함할 수 있다. 즉, 사용자는 기본 조건 정보 및 특수 조건 정보를 구분하여 설정할 수 있다.Referring to FIG. 4, the drone control apparatus according to an embodiment of the present invention may acquire target altitude information and landing permission condition information of a destination (S410). For example, the landing allowance condition information may include at least one of three-dimensional shape information of the drone, information about the landing area search range, and condition condition information of the landing area, and the state condition information of the landing area is the It may include basic condition information related to the safety of the drone and special condition information related to a specific mission of the drone. That is, the user can set the basic condition information and the special condition information separately.

일 실시예에 따른 드론 제어 장치는 상기 목표 고도 정보에 따른 상기 도착지의 목표 고도에서 지면 방향의 영상 정보를 획득할 수 있다(S420). 여기서, 영상 정보는 드론에 탑재된 비전 센서 또는 카메라를 통해 획득될 수 있다. The drone control apparatus according to an embodiment may acquire image information in the direction of the ground at the target altitude of the destination according to the target altitude information (S420). Here, the image information may be acquired through a camera or a vision sensor mounted on a drone.

일 실시예에 따른 드론 제어 장치는 상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정할 수 있다(S430). 예를 들어, 일 실시예는 지면 방향의 영상 정보를 기반으로 지면의 상태를 도출할 수 있고, 상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 상기 착륙 영역을 결정할 수도 있다. 여기서, 일 실시예는 상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 복수의 착륙 영역 후보들을 도출할 수도 있으며, 착륙 허용 조건 정보에 우선 순위 정보가 포함된 경우, 우선 순위 정보를 기반으로 상기 복수의 착륙 영역 후보들 중 하나를 착륙 영역으로 결정할 수도 있다. The drone control apparatus according to an embodiment may determine a landing area based on the landing permit condition information and the image information of the ground direction (S430). For example, in one embodiment, the state of the ground may be derived based on the image information of the ground direction, and the landing area that satisfies the landing allowance condition according to the landing allowance condition information may be determined based on the state of the ground. May be. Here, one embodiment may derive a plurality of landing area candidates that satisfy the landing allowance condition according to the landing allowance condition information based on the state of the ground, and when priority information is included in the landing allowance condition information, One of the plurality of landing area candidates may be determined as the landing area based on priority information.

예를 들어, 지면의 상태는 머신 러닝을 통해 지면에 대한 학습 영상 정보를 기반으로 미리 학습된 지면 상태 판별 모델을 이용하여 상기 지면 방향의 영상 정보로부터 도출될 수도 있다. 여기서, 상기 지면 상태 판별 모델은 미리 설정된 복수의 고도에 대응하는 복수의 지면 상태 판별 모델들을 포함할 수 있으며, 상기 복수의 지면 상태 판별 모델들은 각각 상기 복수의 고도에 따른 학습 영상 정보를 기반으로 학습될 수 있다 이 경우, 상기 지면의 상태는 상기 복수의 지면 상태 판별 모델들 중 상기 드론의 고도에 대응되는 특정 지면 상태 판별 모델을 기반으로 도출될 수도 있다. 다만, 지면의 상태는 도 2와 함께 설명한 다른 방법을 통해 도출될 수도 있으므로, 이에 한정되는 것은 아니다. For example, the state of the ground may be derived from the image information in the direction of the ground using a ground state determination model that has been learned in advance based on the learning image information about the ground through machine learning. Here, the ground state determination model may include a plurality of ground state determination models corresponding to a plurality of preset altitudes, and the plurality of ground state determination models are each trained based on the learning image information according to the plurality of altitudes. In this case, the state of the ground may be derived based on a specific ground state determination model corresponding to the altitude of the drone among the plurality of ground state determination models. However, since the state of the ground may be derived through another method described with reference to FIG. 2, it is not limited thereto.

일 실시예에 따른 드론 제어 장치는 상기 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시킬 수 있다(S440). 예를 들어, 일 실시예는 LOI 확보를 위해 고도 변경 또는 선회 비행을 수행할 수 있다. 여기서, 고도 변경은 착륙 허용 조건 정보 내의 탐색 고도 정보를 기반으로 수행될 수 있고, 선회 비행은 착륙 허용 조건 정보 내의 선회 반경 정보를 기반으로 수행될 수 있다.The drone control apparatus according to an embodiment may move the drone to a position where a line of sight (LOI) to the landing area is secured (S440). For example, an embodiment may perform altitude change or turning flight to secure LOI. Here, the altitude change may be performed based on search altitude information in the landing allowance condition information, and the turning flight may be performed based on the turning radius information in the landing allowance condition information.

예를 들어, 상기 착륙 영역이 복수의 착륙 영역 후보들 중 특정 착륙 영역 후보로 결정되는 경우, 일 실시예는 상기 고도 변경 또는 상기 선회 비행을 통해 LOI가 확보되지 않는 경우, 상기 착륙 영역은 상기 복수의 착륙 영역 후보들 중 상기 특정 착륙 영역 후보와 다른 착륙 영역 후보로 다시 결정할 수도 있다.For example, when the landing area is determined as a specific landing area candidate among a plurality of landing area candidates, in one embodiment, when the LOI is not secured through the altitude change or the turning flight, the landing area is the plurality of Among the landing area candidates, the specific landing area candidate may be determined again as a different landing area candidate.

일 실시예에 따른 드론 제어 장치는 상기 LOI를 기반으로 비행 경로를 생성할 수 있고(S450), 상기 비행 경로를 기반으로 상기 드론의 착륙을 제어할 수 있다(S460). 예를 들어, 일 실시예는 착륙 제어 과정에서 상기 비행 경로에 따른 영상 정보를 획득할 수 있고, 상기 비행 경로에 따른 영상 정보를 기반으로 상기 비행 경로 내의 장애물의 존재 여부를 판단할 수 있으며, 상기 비행 경로 내의 장애물이 존재하는 경우, 회피 비행 경로를 생성하고, 상기 회피 비행 경로를 기반으로 상기 드론의 착륙을 제어할 수도 있다. 여기서, 상기 회피 비행 경로는 상기 비행 경로에 따른 영상 정보 내의 상기 장애물의 위치 정보를 기반으로 생성될 수도 있다.The drone control apparatus according to an embodiment may generate a flight path based on the LOI (S450), and control landing of the drone based on the flight path (S460). For example, in an embodiment, in a landing control process, image information according to the flight path may be obtained, and the existence of an obstacle in the flight path may be determined based on the image information according to the flight path, and the When there is an obstacle in the flight path, an avoidance flight path may be generated, and landing of the drone may be controlled based on the avoidance flight path. Here, the avoidance flight path may be generated based on location information of the obstacle in the image information according to the flight path.

도 4와 함께 설명한 동작, 기능 또는 구조는 일 예로서 본 발명의 일 실시예들 중 일부일 수 있다. 즉, 본 발명의 일 실시예는 도 4에서 도시하지 않았어도 도 1 내지 도 3과 함께 설명한 다양한 동작들, 기능들 또는 구조들 중 적어도 일부를 더 포함할 수 있음은 자명하다.The operation, function, or structure described with reference to FIG. 4 may be some of the embodiments of the present invention as an example. That is, it is obvious that an embodiment of the present invention may further include at least some of the various operations, functions, or structures described with reference to FIGS. 1 to 3 even if not illustrated in FIG. 4.

본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation according to an embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. In addition, the computer-readable recording medium may be distributed over a computer system connected through a network to store and execute a computer-readable program or code in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program commands, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. While some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or characteristic of a method step. Similarly, aspects described in the context of a method can also be represented by a corresponding block or item or a feature of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functionality of the methods described herein. In embodiments, the field programmable gate array may work with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.

Claims (10)

자율 착륙을 위한 드론 제어 방법으로서,
도착지의 목표 고도 정보 및 착륙 허용 조건 정보를 획득하는 단계;
상기 목표 고도 정보에 따른 상기 도착지의 목표 고도에서 지면 방향의 영상 정보를 획득하는 단계;
상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하는 단계;
상기 착륙 영역까지의 LOI(Line Of Sight)가 확보되는 위치로 드론을 이동시키는 단계;
상기 LOI를 기반으로 비행 경로를 생성하는 단계; 및
상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 단계를 포함하고,
상기 착륙 허용 조건 정보는 상기 드론의 3차원 형태 정보, 상기 착륙 영역의 탐색 범위 정보 및 상기 착륙 영역의 상태 조건 정보 중 적어도 하나를 포함하고,
상기 착륙 영역의 상태 조건 정보는 상기 드론의 안전에 관련된 기본 조건 정보 및 상기 드론의 특정 미션에 관련된 특수 조건 정보를 포함하고,
상기 기본 조건 정보는 상기 착륙 영역이 수면 위인지에 관한 정보, 상기 착륙 영역이 나무 위인지에 관한 정보, 주변에 이동하는 장애물의 유무에 관한 정보 및 도착지의 경사 각도에 관한 정보를 포함하고,
상기 특수 조건 정보는 상기 착륙 영역이 상기 착륙 영역에 인접한 영역보다 고도가 낮은지에 관한 정보 및 상기 착륙 영역이 상기 인접한 영역보다 고도가 높은지에 관한 정보를 포함하고,
상기 착륙 영역까지의 LOI가 확보되는 위치로 드론을 이동시키는 단계는,
고도 변경 또는 선회 비행을 통해 LOI가 확보되는 위치로 상기 드론을 이동시키는 단계를 포함하고,
상기 고도 변경은 탐색 고도 정보를 기반으로 수행되고,
상기 선회 비행은 선회 반경 정보를 기반으로 수행되고,
상기 탐색 고도 정보 및 상기 선회 반경 정보는 상기 착륙 허용 조건 정보에 더 포함되는 것을 특징으로 하는, 드론 제어 방법.
As a drone control method for autonomous landing,
Obtaining target altitude information and landing permit condition information of the destination;
Obtaining image information of a ground direction at a target altitude of the destination according to the target altitude information;
Determining a landing area based on the landing permit condition information and the image information of the ground direction;
Moving the drone to a position where a line of sight (LOI) to the landing area is secured;
Generating a flight path based on the LOI; And
Including the step of controlling the landing of the drone based on the flight path,
The landing allowance condition information includes at least one of three-dimensional shape information of the drone, search range information of the landing area, and state condition information of the landing area,
The state condition information of the landing area includes basic condition information related to the safety of the drone and special condition information related to a specific mission of the drone,
The basic condition information includes information about whether the landing area is above the water surface, information about whether the landing area is above a tree, information about the presence or absence of obstacles moving around, and information about the inclination angle of the destination,
The special condition information includes information on whether the landing area is lower in altitude than an area adjacent to the landing area and information on whether the landing area is higher in altitude than the adjacent area,
The step of moving the drone to a position where the LOI to the landing area is secured,
Including the step of moving the drone to a position where the LOI is secured through altitude change or turning flight,
The altitude change is performed based on search altitude information,
The turning flight is performed based on turning radius information,
The search altitude information and the turning radius information are further included in the landing allowance condition information.
삭제delete 청구항 1에 있어서,
상기 착륙 허용 조건 정보 및 상기 지면 방향의 영상 정보를 기반으로 착륙 영역을 결정하는 단계는,
상기 지면 방향의 영상 정보를 기반으로 지면의 상태를 도출하는 단계; 및
상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 상기 착륙 영역을 결정하는 단계를 포함하는 것을 특징으로 하는, 드론 제어 방법.
The method according to claim 1,
The step of determining a landing area based on the landing allowable condition information and the image information of the ground direction,
Deriving a state of the ground based on the image information in the direction of the ground; And
And determining the landing area that satisfies the landing allowance condition according to the landing allowance condition information based on the state of the ground.
청구항 3에 있어서,
상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 상기 착륙 영역을 결정하는 단계는,
상기 지면의 상태를 기반으로 상기 착륙 허용 조건 정보에 따른 착륙 허용 조건을 만족하는 복수의 착륙 영역 후보들을 도출하는 단계; 및
우선 순위 정보를 기반으로 상기 복수의 착륙 영역 후보들 중 하나를 상기 착륙 영역으로 결정하는 단계를 포함하고,
상기 우선 순위 정보는 상기 착륙 허용 조건 정보에 포함되는 것을 특징으로 하는, 드론 제어 방법.
The method of claim 3,
The step of determining the landing area that satisfies the landing allowance condition according to the landing allowance condition information based on the state of the ground,
Deriving a plurality of landing area candidates satisfying a landing allowance condition according to the landing allowance condition information based on the state of the ground; And
And determining one of the plurality of landing area candidates as the landing area based on priority information,
The priority information is characterized in that included in the landing permit condition information, drone control method.
청구항 3에 있어서,
상기 지면 방향의 영상 정보를 기반으로 지면의 상태를 도출하는 단계는,
머신 러닝을 통해 지면에 대한 학습 영상 정보를 기반으로 미리 학습된 지면 상태 판별 모델을 이용하여 상기 지면 방향의 영상 정보로부터 상기 지면의 상태를 도출하는 단계를 포함하는 것을 특징으로 하는, 드론 제어 방법.
The method of claim 3,
The step of deriving the state of the ground based on the image information in the direction of the ground,
And deriving the state of the ground from the image information in the direction of the ground using a pre-learned ground state determination model based on the training image information about the ground through machine learning.
청구항 5에 있어서,
상기 지면 상태 판별 모델은 미리 설정된 복수의 고도에 대응하는 복수의 지면 상태 판별 모델들을 포함하고,
상기 복수의 지면 상태 판별 모델들은 각각 상기 복수의 고도에 따른 학습 영상 정보를 기반으로 학습되고,
상기 지면의 상태는 상기 복수의 지면 상태 판별 모델들 중 상기 드론의 고도에 대응되는 특정 지면 상태 판별 모델을 기반으로 도출되는 것을 특징으로 하는, 드론 제어 방법.
The method of claim 5,
The ground state determination model includes a plurality of ground state determination models corresponding to a plurality of preset altitudes,
Each of the plurality of ground state determination models is trained based on the learning image information according to the plurality of elevations,
The state of the ground is derived based on a specific ground state determination model corresponding to the altitude of the drone among the plurality of ground state determination models.
삭제delete 청구항 1에 있어서,
상기 착륙 영역은 복수의 착륙 영역 후보들 중 특정 착륙 영역 후보로 결정되고,
상기 착륙 영역까지의 LOI가 확보되는 위치로 드론을 이동시키는 단계는,
상기 고도 변경 또는 상기 선회 비행을 통해 LOI가 확보되지 않는 경우, 상기 착륙 영역은 상기 복수의 착륙 영역 후보들 중 상기 특정 착륙 영역 후보와 다른 착륙 영역 후보로 다시 결정되는 단계를 포함하는 것을 특징으로 하는, 드론 제어 방법.
The method according to claim 1,
The landing area is determined as a specific landing area candidate among a plurality of landing area candidates,
The step of moving the drone to a position where the LOI to the landing area is secured,
When the LOI is not secured through the altitude change or the turning flight, the landing area is re-determined as a landing area candidate different from the specific landing area candidate among the plurality of landing area candidates, How to control the drone.
청구항 1에 있어서,
상기 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 단계는,
상기 비행 경로에 따른 영상 정보를 획득하는 단계;
상기 비행 경로에 따른 영상 정보를 기반으로 상기 비행 경로 내의 장애물의 존재 여부를 판단하는 단계; 및
상기 비행 경로 내의 장애물이 존재하는 경우, 회피 비행 경로를 생성하고, 상기 회피 비행 경로를 기반으로 상기 드론의 착륙을 제어하는 단계를 포함하는 것을 특징으로 하는, 드론 제어 방법.
The method according to claim 1,
Controlling the landing of the drone based on the flight path,
Obtaining image information according to the flight path;
Determining whether or not an obstacle exists in the flight path based on image information according to the flight path; And
If there is an obstacle in the flight path, generating an avoidance flight path, characterized in that it comprises the step of controlling the landing of the drone based on the avoidance flight path, drone control method.
청구항 9에 있어서,
상기 회피 비행 경로는 상기 비행 경로에 따른 영상 정보 내의 상기 장애물의 위치 정보를 기반으로 생성되는 것을 특징으로 하는, 드론 제어 방법.
The method of claim 9,
The avoided flight path is generated based on the position information of the obstacle in the image information according to the flight path.
KR1020200062764A 2020-05-26 2020-05-26 Method and apparatus for controlling drone for autonomic landing KR102199680B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200062764A KR102199680B1 (en) 2020-05-26 2020-05-26 Method and apparatus for controlling drone for autonomic landing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200062764A KR102199680B1 (en) 2020-05-26 2020-05-26 Method and apparatus for controlling drone for autonomic landing

Publications (1)

Publication Number Publication Date
KR102199680B1 true KR102199680B1 (en) 2021-01-07

Family

ID=74126929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200062764A KR102199680B1 (en) 2020-05-26 2020-05-26 Method and apparatus for controlling drone for autonomic landing

Country Status (1)

Country Link
KR (1) KR102199680B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113759984A (en) * 2021-11-09 2021-12-07 山东天亚达新材料科技有限公司 Intelligent data interaction method, device and equipment for racing unmanned aerial vehicle
CN113791628A (en) * 2021-08-31 2021-12-14 航天时代飞鹏有限公司 Rapid landing track planning method and device based on composite wing unmanned aerial vehicle
WO2023178476A1 (en) * 2022-03-21 2023-09-28 深圳市大疆创新科技有限公司 Landing control method and device for unmanned aerial vehicle, and unmanned aerial vehicle
US20240080090A1 (en) * 2021-06-07 2024-03-07 Dalian University Of Technology Method for Request Scheduling in UAV-Assisted Mobile Edge Computing (MEC) Network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101651600B1 (en) * 2016-04-29 2016-08-29 공간정보기술 주식회사 Unmanned aerial drone having automatic landing function by stereo camera
JP2017182690A (en) * 2016-03-31 2017-10-05 セコム株式会社 Autonomous Mobile Robot
JP2019196150A (en) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 System, method, and program for identifying safe landing area, and storage medium for storing the program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182690A (en) * 2016-03-31 2017-10-05 セコム株式会社 Autonomous Mobile Robot
KR101651600B1 (en) * 2016-04-29 2016-08-29 공간정보기술 주식회사 Unmanned aerial drone having automatic landing function by stereo camera
JP2019196150A (en) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 System, method, and program for identifying safe landing area, and storage medium for storing the program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240080090A1 (en) * 2021-06-07 2024-03-07 Dalian University Of Technology Method for Request Scheduling in UAV-Assisted Mobile Edge Computing (MEC) Network
US11973569B2 (en) * 2021-06-07 2024-04-30 Dalian University Of Technology Method for request scheduling in UAV-assisted mobile edge computing (MEC) network
CN113791628A (en) * 2021-08-31 2021-12-14 航天时代飞鹏有限公司 Rapid landing track planning method and device based on composite wing unmanned aerial vehicle
CN113759984A (en) * 2021-11-09 2021-12-07 山东天亚达新材料科技有限公司 Intelligent data interaction method, device and equipment for racing unmanned aerial vehicle
CN113759984B (en) * 2021-11-09 2022-02-08 山东天亚达新材料科技有限公司 Intelligent data interaction method, device and equipment for racing unmanned aerial vehicle
WO2023178476A1 (en) * 2022-03-21 2023-09-28 深圳市大疆创新科技有限公司 Landing control method and device for unmanned aerial vehicle, and unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
KR102199680B1 (en) Method and apparatus for controlling drone for autonomic landing
CN110268356B (en) Leading unmanned aerial vehicle's system
US8996207B2 (en) Systems and methods for autonomous landing using a three dimensional evidence grid
US20200258400A1 (en) Ground-aware uav flight planning and operation system
CN110226143B (en) Method for leading unmanned aerial vehicle
EP1709611B1 (en) Automatic taxi manager
KR101827251B1 (en) Method for detecting working area and performing continuous working in the detected working area and the unmanned air vehicle performing the same
CN111295627B (en) Underwater piloting unmanned aerial vehicle system
US20110288714A1 (en) Autonomous navigation system and method for a maneuverable platform
EP3210091B1 (en) Optimal safe landing area determination
WO2017168423A1 (en) System and method for autonomous guidance of vehicles
US11715072B2 (en) System, devices and methods for tele-operated robotics
BR102013016268A2 (en) Unpredictable Vehicle Navigation
Meng et al. Decentralized control of multi-UAVs for target search, tasking and tracking
Sinisterra et al. A USV platform for surface autonomy
CN113994291A (en) Mobile body, control method, and program
CA3132165A1 (en) System, devices and methods for tele-operated robotics
Kamat et al. A survey on autonomous navigation techniques
JP7086554B2 (en) Unmanned aerial vehicle control method and unmanned aerial vehicle control program
US20230142863A1 (en) Performance of autonomous vehicle operation in varying conditions by using imagery generated with machine learning for simulations
KR20100129543A (en) Apparatus for guiding route of uninhabited aerial vehicle
KR102289752B1 (en) A drone for performring route flight in gps blocked area and methed therefor
RU2795344C1 (en) Method for selecting a safe landing area
KR102373708B1 (en) Mountain lifesaving drone and method for controlling the same
Wickramanayake et al. Landing on to a moving target using quad-copter: a comprehensive survey

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant