KR102184693B1 - Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles - Google Patents

Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles Download PDF

Info

Publication number
KR102184693B1
KR102184693B1 KR1020190058018A KR20190058018A KR102184693B1 KR 102184693 B1 KR102184693 B1 KR 102184693B1 KR 1020190058018 A KR1020190058018 A KR 1020190058018A KR 20190058018 A KR20190058018 A KR 20190058018A KR 102184693 B1 KR102184693 B1 KR 102184693B1
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
marker
unmanned
landing
Prior art date
Application number
KR1020190058018A
Other languages
Korean (ko)
Other versions
KR20200132458A (en
Inventor
이장호
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020190058018A priority Critical patent/KR102184693B1/en
Publication of KR20200132458A publication Critical patent/KR20200132458A/en
Application granted granted Critical
Publication of KR102184693B1 publication Critical patent/KR102184693B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • B64C2201/141
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치가 개시된다. 본 발명의 일실시예에 따른 지상무인이동체로의 무인비행체 자동착륙 방법은, 무인비행체에 장착되는 카메라로부터 지상무인이동체를 촬영한 적외선 영상을 획득하는 단계; 상기 적외선 영상 내에서, 상기 지상무인이동체와 연관되어 배치된 마커의 마커위치를 식별하는 단계; 상기 마커위치를 고려하여, 상기 지상무인이동체가 현재 위치하는 착륙위치를 계산하는 단계; 및 상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 상기 무인비행체를 상기 지상무인이동체에 착륙시키는 단계를 포함할 수 있다.Disclosed are an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle automatic landing device to a ground unmanned vehicle. In accordance with an embodiment of the present invention, a method of automatically landing an unmanned aerial vehicle to a ground unmanned vehicle includes: obtaining an infrared image photographing an unmanned aerial vehicle from a camera mounted on the unmanned aerial vehicle; Identifying a marker position of a marker disposed in association with the unmanned aerial vehicle in the infrared image; Calculating a landing position at which the unmanned ground vehicle is currently located in consideration of the marker position; And landing the unmanned aerial vehicle on the ground unmanned vehicle according to navigation information including a landing path to the landing position.

Description

지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치{AUTOMATIC LANDING METHOD OF UNMANNED AERIAL VEHICLE INTO GROUND-FREE VEHICLE, AND AUTOMATIC LANDING DEVICE OF UNMANNED AERIAL VEHICLES}Automatic landing method of unmanned aerial vehicle to ground unmanned vehicle and automatic landing device of unmanned aerial vehicle {AUTOMATIC LANDING METHOD OF UNMANNED AERIAL VEHICLE INTO GROUND-FREE VEHICLE, AND AUTOMATIC LANDING DEVICE OF UNMANNED AERIAL VEHICLES}

본 발명은 다수의 무인비행체 간의 자율협력 운용을 위한 비행 후, 내풍 등의 주변 환경과 무관하게 안정적으로 지상무인이동체로, 무인비행체를 착륙시키기 위한, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치에 관한 것이다.The present invention provides an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle for landing an unmanned aerial vehicle stably after flight for autonomous cooperative operation between a plurality of unmanned aerial vehicles, irrespective of surrounding environment such as internal wind, etc. It relates to a vehicle automatic landing device.

공공 및 산업용도로 무인비행체를 도입하는 데에 있어, 가장 큰 장애요소는 안전성 높은 자동 이착륙 기술이 부재하다는 점이다. 특히 산업용 무인기는 주로 야외에서 운용되는데, 바람에 취약해 이착륙 과정에서 추락하거나 운용하지 못하는 경우가 많이 발생할 수 있다.The biggest obstacle to the introduction of unmanned aerial vehicles on public and industrial roads is the lack of safe automatic takeoff and landing technology. In particular, industrial UAVs are mainly operated outdoors, but there are many cases where they fall or cannot be operated during take-off and landing because they are vulnerable to wind.

또한, 기존 멀티콥터 형태의 무인비행체(예, 드론)를 야외에서 운용할 때의 가장 큰 문제는 바람에 의해 착륙 성능이 현저히 떨어진다는 것이다.In addition, the biggest problem when operating an existing multicopter-type unmanned aerial vehicle (eg, drone) outdoors is that the landing performance is significantly degraded by the wind.

무인비행체의 이러한 바람 취약성을 개선하기 위해, 예컨대 별도의 센서를 무인비행체에 장착하여, 360도 전 방향의 바람을 측정해서 바람에 의해 무인비행체가 특정 방향으로 쏠려 착륙하는 것을 방지하는 방안이 고안되고 있다.In order to improve the wind vulnerability of the unmanned aerial vehicle, for example, a separate sensor is installed on the unmanned aerial vehicle to measure the wind in all directions of 360 degrees to prevent the unmanned aerial vehicle from landing in a specific direction by the wind. have.

다만, 이러한 센서 장착에 의한 개선책은, 센서 장착에 대량의 비용이 발생할 수 있고, 구매 가능한 완제품이 없어 적용 개발이 필수가 되어 기술 개발에 많은 노력이 소요되는 문제점이 있어 왔다.However, such an improvement measure by mounting the sensor has a problem in that a large amount of cost may be incurred for mounting the sensor, and application development is essential because there is no purchaseable finished product, and a lot of effort is required for technology development.

즉, 규정된 수준의 내풍 성능이 무인비행체에 갖춰지도록 하기 위한 다양한 시도가 있었지만, 현재까지 유용한 보편적인 기법은 등장하지 않고 있다.In other words, various attempts have been made to ensure that the unmanned aerial vehicle has a specified level of wind resistance, but there are no useful universal techniques to date.

이에 따라, 무인비행체에 대한 내풍성을 향상시키는 기술이 절실히 요구되는 실정이다.Accordingly, there is an urgent need for technology to improve wind resistance for unmanned aerial vehicles.

본 발명의 실시예는, 무인비행체의 비행환경에서 흔히 발생하는 불규칙적인 돌풍을 이겨내고 정해진 위치에 자동으로, 무인비행체를 정밀하게 이착륙 시키는 유도제어기법을 구현하는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공하는 것을 목적으로 한다.An embodiment of the present invention is an unmanned aerial vehicle automatic landing to a ground unmanned vehicle, which overcomes irregular gusts that commonly occur in the flight environment of an unmanned aerial vehicle, and implements a guidance control technique that automatically takes off and lands the unmanned aerial vehicle at a predetermined location. It is an object of the present invention to provide a method and an unmanned aerial vehicle automatic landing apparatus.

또한, 본 발명의 실시예는, 바람에 취약한 무인비행체의 내풍성을 개선하여 비행 성능을 개선하고, 돌풍이 부는 야외에서 무인비행체를 정밀하게 자동으로 이착륙하는 유도제어 기술을 제공하는 것을 목적으로 한다.In addition, an embodiment of the present invention is to improve the wind resistance of an unmanned aerial vehicle vulnerable to wind to improve flight performance, and to provide an induction control technology for accurately and automatically taking off and landing an unmanned aerial vehicle in a gust of outdoor. .

또한, 본 발명의 실시예는, 유도제어 알고리즘 개선만으로, 무인비행체에 대한 내풍성을 획기적으로 향상시키는 것을 목적으로 한다.In addition, an embodiment of the present invention aims to dramatically improve wind resistance for an unmanned aerial vehicle by only improving the guidance control algorithm.

또한, 본 발명의 실시예는, 산업용도의 무인비행체의 안전성과 운용성을 크게 개선시키는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to provide an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle automatic landing apparatus to greatly improve the safety and operability of an unmanned aerial vehicle for an industrial purpose.

본 발명의 일실시예에 따른 지상무인이동체로의 무인비행체 자동착륙 방법은, 무인비행체에 장착되는 카메라로부터 지상무인이동체를 촬영한 적외선 영상을 획득하는 단계; 상기 적외선 영상 내에서, 상기 지상무인이동체와 연관되어 배치된 마커의 마커위치를 식별하는 단계; 상기 마커위치를 고려하여, 상기 지상무인이동체가 현재 위치하는 착륙위치를 계산하는 단계; 및 상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 상기 무인비행체를 상기 지상무인이동체에 착륙시키는 단계를 포함할 수 있다.In accordance with an embodiment of the present invention, a method of automatically landing an unmanned aerial vehicle to a ground unmanned vehicle includes: obtaining an infrared image photographing an unmanned aerial vehicle from a camera mounted on the unmanned aerial vehicle; Identifying a marker position of a marker disposed in association with the unmanned aerial vehicle in the infrared image; Calculating a landing position at which the unmanned ground vehicle is currently located in consideration of the marker position; And landing the unmanned aerial vehicle on the ground unmanned vehicle according to navigation information including a landing path to the landing position.

또한, 본 발명의 실시예에 따른 무인비행체 자동착륙 장치는, 무인비행체에 장착되는 카메라로부터 지상무인이동체를 촬영한 적외선 영상을 획득하는 획득부; 상기 적외선 영상 내에서, 상기 지상무인이동체와 연관되어 배치된 마커의 마커위치를 식별하는 처리부; 상기 마커위치를 고려하여, 상기 지상무인이동체가 현재 위치하는 착륙위치를 계산하는 계산부; 및 상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 상기 무인비행체를 상기 지상무인이동체에 착륙시키는 유도부를 포함하여 구성할 수 있다.In addition, an unmanned aerial vehicle automatic landing apparatus according to an embodiment of the present invention includes: an acquisition unit that acquires an infrared image photographed of an unmanned aerial vehicle from a camera mounted on the unmanned aerial vehicle; A processing unit that identifies a marker position of a marker disposed in association with the unmanned aerial vehicle in the infrared image; A calculation unit that calculates a landing position at which the unmanned ground vehicle is currently located in consideration of the marker position; And a guide unit for landing the unmanned aerial vehicle on the ground unmanned vehicle according to the navigation information including the landing path to the landing position.

본 발명의 일실시예에 따르면, 무인비행체의 비행환경에서 흔히 발생하는 불규칙적인 돌풍을 이겨내고 정해진 위치에 자동으로, 무인비행체를 정밀하게 이착륙 시키는 유도제어기법을 구현하는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.According to an embodiment of the present invention, an unmanned aerial vehicle to a ground unmanned vehicle implements an induction control technique that overcomes irregular gusts that commonly occur in the flight environment of an unmanned aerial vehicle and automatically takes off and lands an unmanned aerial vehicle at a predetermined location. An automatic landing method and an unmanned aerial vehicle automatic landing device can be provided.

또한, 본 발명의 일실시예에 따르면, 바람에 취약한 무인비행체의 내풍성을 개선하여 비행 성능을 개선하고, 돌풍이 부는 야외에서 무인비행체를 정밀하게 자동으로 이착륙하는 유도제어 기술을 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to improve the wind resistance of an unmanned aerial vehicle vulnerable to wind to improve flight performance, and provide an induction control technology that accurately and automatically takes off and lands an unmanned aerial vehicle in a gust of outdoor. .

또한, 본 발명의 일실시예에 따르면, 유도제어 알고리즘 개선만으로, 무인비행체에 대한 내풍성을 획기적으로 향상시킬 수 있다.In addition, according to an embodiment of the present invention, only by improving the guidance control algorithm, it is possible to dramatically improve the wind resistance of the unmanned aerial vehicle.

또한, 본 발명의 일실시예에 따르면, 산업용도의 무인비행체의 안전성과 운용성을 크게 개선시키는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to provide an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle automatic landing apparatus that greatly improves the safety and operability of an unmanned aerial vehicle for an industrial purpose.

도 1은 본 발명의 일실시예에 따른, 지상무인이동체로의 무인비행체 자동착륙 장치의 내부 구성을 도시한 블록도이다.
도 2는 본 발명에 따라, 마커위치를 식별하고, 착륙위치를 계산하는 일례를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 마커 영상인식을 통한 자동착륙 알고리즘을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른, 지상무인이동체로의 무인비행체 자동착륙 방법의 순서를 도시한 흐름도이다.
1 is a block diagram showing the internal configuration of an unmanned aerial vehicle automatic landing apparatus for a ground unmanned vehicle according to an embodiment of the present invention.
2 is a view for explaining an example of identifying a marker position and calculating a landing position according to the present invention.
3 is a diagram for explaining an automatic landing algorithm through marker image recognition according to the present invention.
4 is a flowchart illustrating a procedure of a method of automatically landing an unmanned aerial vehicle to a ground unmanned vehicle according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present invention. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

도 1은 본 발명의 일실시예에 따른, 지상무인이동체로의 무인비행체 자동착륙 장치의 내부 구성을 도시한 블록도이다.1 is a block diagram showing the internal configuration of an unmanned aerial vehicle automatic landing apparatus for a ground unmanned vehicle according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른, 무인비행체 자동착륙 장치(100)는, 획득부(110), 처리부(120), 계산부(130), 및 유도부(140)를 포함하여 구성할 수 있다. 본 발명의 무인비행체 자동착륙 장치(100)는, 무인비행체(A)에 포함되어 구현될 수 있다.Referring to FIG. 1, an unmanned aerial vehicle automatic landing apparatus 100 according to an embodiment of the present invention includes an acquisition unit 110, a processing unit 120, a calculation unit 130, and an induction unit 140. Configurable. The unmanned aerial vehicle automatic landing apparatus 100 of the present invention may be implemented by being included in the unmanned aerial vehicle (A).

우선, 획득부(110)는 무인비행체(A)에 장착되는 카메라로부터 지상무인이동체(B)를 촬영한 적외선 영상을 획득한다. 즉, 획득부(110)는 착륙을 위해 지상무인이동체(B)를 추적하고, 추적된 지상무인이동체(B)를 촬영한 적외선 영상을 카메라를 통해 수집하는 역할을 할 수 있다.First, the acquisition unit 110 acquires an infrared image of an unmanned aerial vehicle (B) photographed from a camera mounted on the unmanned aerial vehicle (A). That is, the acquisition unit 110 may play a role of tracking the unmanned ground vehicle B for landing and collecting an infrared image of the tracked unmanned aerial vehicle B through the camera.

무인비행체(A)는 조종사가 직접 탑승하지 않고 원거리에서 무선으로 원격 조정이 가능하거나, 입력된 프로그램에 따라 비행이 가능한 비행체를 지칭할 수 있다. 이러한 무인비행체(A)는 적지 감시 등의 군사 분야, 및 환경 감시, 기상 관측, 민간 통신 중계 등의 비군사적 분야에서 전방위로 활용되고 있고, 예컨대 드론(drone)을 예시할 수 있다.The unmanned aerial vehicle (A) may refer to a vehicle that can be remotely controlled wirelessly from a distance without a pilot directly boarding, or can fly according to an input program. The unmanned aerial vehicle (A) is used in all directions in military fields such as enemy site monitoring, and non-military fields such as environmental monitoring, weather observation, and civil communication relay, and examples thereof may be a drone.

또한, 카메라는, 적외선에 대한 충분한 감도를 갖으면서 지상의 목표물을 촬영하여 적외선 영상을 생성하는 수단일 수 있다. 카메라는 적외선 건판이나 적외선에 민감한 전하결합소자(CCD)를 이용하여 적외선 영상을 생성할 수 있다.In addition, the camera may be a means for generating an infrared image by photographing a target on the ground while having sufficient sensitivity to infrared rays. The camera can generate an infrared image using an infrared keyboard or a charge-coupled device (CCD) sensitive to infrared rays.

또한, 지상무인이동체(B)는 원격 운용이나 자율 제어에 의하여 사람이 탑승하지 않고 임무를 수행할 수 있는 차량을 지칭할 수 있다. 본 발명에서의 지상무인이동체(B)는 무인비행체(A)의 착륙지 역할을 하고, 착륙한 무인비행체(A)를 탑재한 상태에서 필요한 지점으로 지상 이동하는 역할을 병행할 수 있다. 또한, 지상무인이동체(B)는 착륙한 무인비행체(A)에 대해, 전기 충전 서비스를 제공할 수 있다.In addition, the unmanned ground vehicle (B) may refer to a vehicle capable of performing a mission without a person on board by remote operation or autonomous control. In the present invention, the unmanned aerial vehicle (B) serves as a landing site for the unmanned aerial vehicle (A), and can simultaneously move to a necessary point while the unmanned aerial vehicle (A) is mounted. In addition, the ground unmanned vehicle (B) may provide an electric charging service to the landed unmanned aerial vehicle (A).

처리부(120)는 적외선 영상 내에서, 지상무인이동체(B)와 연관되어 배치된 마커의 마커위치를 식별한다. 즉, 처리부(120)는 획득한 적외선 영상에 대해, 영상 분석을 하여, 적외선 영상으로부터 마커를 특정해내는 역할을 할 수 있다.The processing unit 120 identifies a marker position of a marker disposed in association with the unmanned aerial vehicle B in the infrared image. That is, the processing unit 120 may perform an image analysis on the acquired infrared image to identify a marker from the infrared image.

마커는 무인비행체(A)에게 특정 지점을 통과하거나 특정 지점에 위치 함을 알리기 위한 수단일 수 있다. 본 발명에서는, 다수 개의 마커를 지상무인이동체(B) 주변으로 산개하여 배치 함으로써, 무인비행체(A)로 하여금 마커의 인식 후, 인식된 마커와의 상대적 위치를 추정하여 지상무인이동체(B)의 위치를 가늠하도록 할 수 있다.The marker may be a means for notifying the unmanned aerial vehicle (A) to pass through a specific point or to be located at a specific point. In the present invention, by distributing and arranging a plurality of markers around the ground unmanned vehicle (B), the unmanned aerial vehicle (A) recognizes the marker, and then estimates the relative position of the recognized marker to the unmanned ground vehicle (B). You can try to determine the location.

즉, 마커는 지상무인이동체(B)로부터 미리 선정된 거리와 방향의 지점에 배치되고 있기 때문에, 처리부(120)에서 마커를 인식하여 인식된 마커가 배치되는 마커위치를 식별 함에 따라, 지상무인이동체(B)의 현 위치를, 식별된 마커위치를 통해 역으로 추정하도록 지원할 수 있다.That is, since the marker is placed at a point of a distance and direction previously selected from the unmanned ground vehicle (B), the processing unit 120 recognizes the marker and identifies the location of the marker where the recognized marker is placed. It can support to estimate the current position of (B) inversely through the identified marker position.

예컨대, 지상무인이동체(B)로부터 W1(서쪽으로 1m) 지점에 마커를 배치한 상태에서, 처리부(120)에서 적외선 영상을 통해 마커를 인식하고 인식된 마커의 마커위치를 식별한다면, 이후의 계산부(130)는 식별된 마커위치 'W1'으로부터 동쪽으로 1m 지점에 지상무인이동체(B)가 있음을 추정해 낼 수 있다.For example, if the marker is placed at the point W1 (1m to the west) from the unmanned aerial vehicle (B), and the processing unit 120 recognizes the marker through the infrared image and identifies the marker position of the recognized marker, subsequent calculations The unit 130 can estimate that there is an unmanned ground vehicle (B) at a point 1m east of the identified marker position'W1'.

마커위치의 식별에 있어, 처리부(120)는 상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 시간의 경과에 따라, 정해진 비율로 감소시킬 수 있다. 즉, 처리부(120)는 셀에 부여되는 데이터 값을 시간의 흐름에 따라 '0'으로 수렴되도록 하여, 과거의 정보가 제거되도록 하면서, 최신의 정보가 상대적으로 부각되어 보여지도록 할 수 있다.In identifying the marker position, the processing unit 120 may reduce a data value of each of a plurality of cells constituting the infrared image at a predetermined rate over time. That is, the processing unit 120 may allow the data value assigned to the cell to be converged to '0' over time, so that the past information is removed and the latest information is relatively highlighted.

이에 따라, 처리부(120)는 오브젝트가 점유하지 않는 비점유셀의 데이터 값을 설정된 최소값으로 결정할 수 있다. 즉, 처리부(120)는 같은 위치에서 일정 시간을 정지하고 있고, 특정 셀을 지속적으로 점유하는 점유셀을 제외하고, 나머지의 비점유셀에 대해, 할당되는 데이터 값을 시간 흐름에 비례하여 감소시킬 수 있다.Accordingly, the processing unit 120 may determine a data value of a non-occupied cell that is not occupied by the object as a set minimum value. That is, the processing unit 120 stops for a certain period of time at the same location and reduces the allocated data value for the remaining non-occupied cells in proportion to the time flow, except for the occupied cells that continuously occupy a specific cell. I can.

또한, 처리부(120)는 직전 주기에 획득한 제1 적외선 영상을 구성하는 셀 중에서, 상기 마커가 점유하는 점유셀을 확인할 수 있다. 즉, 처리부(120)는 제1 적외선 영상에서 마커로 인해 셀이 점유되는 점유셀을 인지할 수 있다.In addition, the processing unit 120 may check the occupied cells occupied by the marker among cells constituting the first infrared image acquired in the immediately preceding period. That is, the processing unit 120 may recognize the occupied cell occupied by the cell due to the marker in the first infrared image.

또한, 처리부(120)는 상기 직전 주기 이후의 현재 주기에 획득한 제2 적외선 영상 내, 상기 점유셀이 지속되어 포함되면, 상기 점유셀이 갖는 데이터 값을 감소시키지 않고 유지할 수 있다. 즉, 처리부(120)는 시간이 흘러, 현재 주기가 되어 획득되는 제2 적외선 영상에도, 앞서의 마커로 인해 셀이 점유되는 점유셀이 지속(마커가 직전 주기에도 현재 주기에도 계속적으로 특정 셀을 점유)하면, 해당 점유셀이 갖는 데이터 값을 그대로 유지시킬 수 있다.In addition, if the occupied cell is continuously included in the second infrared image acquired in the current period after the immediately preceding period, the processing unit 120 may maintain the data value of the occupied cell without decreasing. That is, as time passes, the occupied cell in which the cell is occupied due to the previous marker continues even in the second infrared image acquired as the current period (the marker continues to select a specific cell in the previous period or the current period). If occupied), the data value of the corresponding occupied cell can be maintained.

이후, 처리부(120)는 상기 데이터 값이 유지되는 상기 점유셀의 위치를, 상기 마커위치로서 식별할 수 있다. 즉, 처리부(120)는 위치가 지상에 고정되는 마커로 인해, 연속되는 주기에 획득되는 복수의 적외선 영상에서 점유셀이 지속하여 나타나면, 해당 점유셀의 위치를 마커위치로서 식별할 수 있다.Thereafter, the processing unit 120 may identify the position of the occupied cell in which the data value is maintained as the marker position. That is, the processing unit 120 may identify the position of the occupied cell as the marker position when the occupied cell continues to appear in a plurality of infrared images acquired in successive periods due to a marker whose position is fixed on the ground.

후술하는 도 2의 (a)에서, 처리부(120)는 제1 적외선 영상과 제2 적외선 영상 내에 공통으로 마커가 점유하는 점유셀을 확인하고, 이 점유셀에 대한 GPS 좌표를 마커위치 '136:30:00E, 36:30:00N'로서 식별하는 것을 예시하고 있다.In (a) of FIG. 2 to be described later, the processing unit 120 checks the occupied cells commonly occupied by the marker in the first infrared image and the second infrared image, and stores GPS coordinates for the occupied cells at the marker position '136: 30:00E, 36:30:00N'.

다른 실시예에서, 처리부(120)는, 상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 임계치와 비교할 수 있다. 즉, 처리부(120)는 상기 적외선 영상 내에서 정보 가치가 있는 영역을 선별해 내기 위해, 기준 값인 임계치를 설정하여, 셀 각각으로 데이터 값과 임계치를 비교 함으로써 적외선 영상 내에서 마커의 위치를 찾는 역할을 할 수 있다.In another embodiment, the processor 120 may compare a data value of each of a plurality of cells constituting the infrared image with a threshold value. That is, the processing unit 120 sets a threshold value, which is a reference value, and compares the data value with the threshold value for each cell in order to select a region with information value in the infrared image to find the position of the marker in the infrared image. can do.

또한, 처리부(120)는 상기 비교 결과, 상기 임계치 이상의 데이터 값을 1로 환산하고, 상기 임계치 미만의 데이터 값을 0으로 환산하여, 상기 적외선 영상에 대해 이진화 할 수 있다. 즉, 처리부(120)는 임계치 이상으로 정보로서 가치가 있다고 판단되는 데이터 값을 1로 전환하고, 임계치 미만으로 노이즈로 판단되는 데이터 값을 0으로 전환하여, 상기 적외선 영상을 0과 1의 이진 데이터로 표현할 수 있다.In addition, as a result of the comparison, the processor 120 may convert the data value equal to or greater than the threshold value to 1, convert the data value less than the threshold value to 0, and perform binarization of the infrared image. That is, the processing unit 120 converts the data value determined to be valuable as information above the threshold value to 1, converts the data value determined to be noise below the threshold value to 0, and converts the infrared image to binary data of 0 and 1 It can be expressed as

이때, 상기 임계치는, 상기 1로 환산되는 데이터 값의 개수를 고려하여 정할 수 있다. 바람직하게, 임계치는 가능한 작게 설정 함으로써, 1로 환산되는 데이터 값이 적어도 필요한 개수를 넘도록 할 수 있다. 예컨대, 마커위치를 식별하는 데에, 10개의 데이터 값이 필요한 발명 환경하에서, 1로 환산되는 데이터 값이 10개 이상이 되도록, 임계치의 크기를 적절히 조정하여 정할 수 있다.In this case, the threshold value may be determined in consideration of the number of data values converted to one. Preferably, by setting the threshold as small as possible, the number of data values converted to 1 may exceed at least a required number. For example, in an invention environment where 10 data values are required to identify the marker position, the size of the threshold value may be appropriately adjusted so that the data value converted to 1 is 10 or more.

이후, 처리부(120)는, 상기 0으로 환산된 셀을 제거하고, 상기 1로 환산된 셀이, 규정된 수 만큼 인접되어 그룹핑되는, 상기 적외선 영상 내 특정영역을, 상기 마커위치로서 식별할 수 있다. 즉, 처리부(120)는1로 환산되어 정보 가치가 있는 셀을 남긴 후, 남겨진 셀 만을 대상으로 인접하는 정도에 따라 그룹핑 하여 규정된 수 이상으로 그룹핑되는 특정영역을 마커위치로서 식별할 수 있다.Thereafter, the processing unit 120 may remove the cells converted to 0, and identify a specific region in the infrared image in which the cells converted to 1 are adjacent and grouped by a prescribed number as the marker location. have. That is, the processing unit 120 may be converted to 1 to leave cells having information value, and then group only the remaining cells according to the degree to which they are adjacent, and identify a specific region grouped by a predetermined number or more as a marker position.

후술하는 도 2의 (b)에서, 처리부(120)는 이진화 된 적외선 영상에서, 데이터 값을 1로 환산한 셀들이, 규정된 수 '5개'를 만족하여 그룹핑되어 있는 특정영역을 확인하고, 이 특정영역에 대한 GPS 좌표를 마커위치 '136:30:00E, 36:30:00N'로서 식별하는 것을 예시하고 있다.In (b) of FIG. 2 to be described later, the processing unit 120 checks a specific region in which cells obtained by converting the data value to 1 in the binarized infrared image are grouped by satisfying the prescribed number of '5', It is exemplified that the GPS coordinates for this specific area are identified as marker positions '136:30:00E, 36:30:00N'.

계산부(130)는 상기 마커위치를 고려하여, 지상무인이동체(B)가 현재 위치하는 착륙위치를 계산한다. 즉, 계산부(130)는 앞서 식별된 마커위치와, 마커의 배치시 지상무인이동체(B)와의 거리 관계를 이용하여, 지상무인이동체(B)의 현 위치를 연산해내는 역할을 할 수 있다.The calculation unit 130 calculates the landing position at which the unmanned ground vehicle B is currently located in consideration of the marker position. That is, the calculation unit 130 may play a role of calculating the current position of the unmanned ground vehicle (B) by using the previously identified marker position and the distance relationship between the unmanned ground vehicle (B) when the marker is placed. .

착륙위치의 계산에 있어, 계산부(130)는 상기 마커에 대한, 상기 지상무인이동체(B)로부터 배치거리 및 배치방향을, 마커 테이블로부터 검색할 수 있다. 즉, 계산부(130)는 지상무인이동체(B)를 기준으로 한, 마커의 거리 정보를, 마커 테이블로부터 추출할 수 있다.In the calculation of the landing position, the calculation unit 130 may retrieve the arrangement distance and arrangement direction of the marker from the unmanned ground vehicle (B) from the marker table. That is, the calculation unit 130 may extract distance information of the marker based on the unmanned aerial vehicle B, from the marker table.

이를 위해 본 발명에서는, 마커 배치시, 각 마커가 배치되는 거리 정보를 산출하여 마커 테이블에 미리 기록할 수 있다. 예컨대, 본 발명의 운영자는, 지상무인이동체(B)로부터 서쪽으로 1m 떨어져 배치되는 '마커 1'에 대해 거리 정보 W1을 부여하여 마커 테이블에 기록할 수 있고, 지상무인이동체(B)로부터 동남쪽으로 2m 떨어져 배치되는 '마커 2'에 대해 거리 정보 ES2을 부여하여 마커 테이블에 기록할 수 있다.To this end, in the present invention, when placing markers, distance information at which each marker is placed may be calculated and recorded in advance in a marker table. For example, the operator of the present invention may assign distance information W1 to'Marker 1'disposed 1m west of the unmanned ground vehicle (B) and record it in the marker table, and to the southeast from the unmanned ground vehicle (B). Distance information ES2 can be assigned to'Marker 2'placed 2m apart and recorded in the marker table.

이후, 계산부(130)는 상기 마커위치를 기준으로, 상기 배치거리 및 상기 배치방향에 따른 지상무인이동체(B)의 정차지점을 추정하여, 상기 착륙위치를 계산할 수 있다. 즉, 계산부(130)는 마커위치와 지상무인이동체(B)와의 상대적 위치를 감안하여, 지상무인이동체(B)가 고정되어 위치하는 정차지점을 추정할 수 있다.Thereafter, the calculation unit 130 may calculate the landing position by estimating a stop point of the unmanned ground vehicle B according to the arrangement distance and the arrangement direction based on the marker position. That is, the calculation unit 130 may estimate a stop point at which the unmanned ground vehicle B is fixed and located in consideration of the position of the marker and the relative position of the unmanned ground vehicle B.

후술하는 도 2의 (C)에서, 계산부(130)는 지상무인이동체(B)로부터 W1(서쪽으로 1m) 지점에 배치된 마커의 마커위치(도 2(a)(b)에서 식별된 마커위치 '136:30:00E, 36:30:00N)을 기준으로, 배치거리 1m, 배치방향 동쪽으로 정차지점을 갖는 지상무인이동체(B)를 추정함으로써, 착륙위치를 계산하는 것을 예시하고 있다.In Figure 2 (C) to be described later, the calculation unit 130 is the marker position of the marker disposed at the point W1 (1m to the west) from the unmanned aerial vehicle (B) (markers identified in Figure 2 (a) (b)) Based on the location '136:30:00E, 36:30:00N), it exemplifies the calculation of the landing position by estimating the unmanned ground vehicle (B) having an arrangement distance of 1m and a stop point east of the arrangement direction.

유도부(140)는 상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 무인비행체(A)를 지상무인이동체(B)에 착륙시킨다. 즉, 유도부(140)는 목적지를, 계산된 착륙위치로 하는 착륙경로를 작성하고, 작성된 착륙경로에 준해 무인비행체(A)에 대해 착륙을 유도하는 역할을 할 수 있다.The guidance unit 140 lands the unmanned aerial vehicle A on the unmanned ground vehicle B according to the navigation information including the landing path to the landing position. That is, the guidance unit 140 may play a role of inducing a landing for the unmanned aerial vehicle A based on the created landing path and creating a landing path with the destination as the calculated landing position.

본 발명의 일실시예에 따르면, 무인비행체의 비행환경에서 흔히 발생하는 불규칙적인 돌풍을 이겨내고 정해진 위치에 자동으로, 무인비행체를 정밀하게 이착륙 시키는 유도제어기법을 구현하는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.According to an embodiment of the present invention, an unmanned aerial vehicle to a ground unmanned vehicle implements an induction control technique that overcomes irregular gusts that commonly occur in the flight environment of an unmanned aerial vehicle and automatically takes off and lands an unmanned aerial vehicle at a predetermined location. An automatic landing method and an unmanned aerial vehicle automatic landing device can be provided.

또한, 본 발명의 일실시예에 따르면, 바람에 취약한 무인비행체의 내풍성을 개선하여 비행 성능을 개선하고, 돌풍이 부는 야외에서 무인비행체를 정밀하게 자동으로 이착륙하는 유도제어 기술을 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to improve the wind resistance of an unmanned aerial vehicle vulnerable to wind to improve flight performance, and provide an induction control technology that accurately and automatically takes off and lands an unmanned aerial vehicle in a gust of outdoor. .

또한, 본 발명의 일실시예에 따르면, 유도제어 알고리즘 개선만으로, 무인비행체에 대한 내풍성을 획기적으로 향상시킬 수 있다.In addition, according to an embodiment of the present invention, only by improving the guidance control algorithm, it is possible to dramatically improve the wind resistance of the unmanned aerial vehicle.

또한, 본 발명의 일실시예에 따르면, 산업용도의 무인비행체의 안전성과 운용성을 크게 개선시키는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to provide an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle automatic landing apparatus that greatly improves the safety and operability of an unmanned aerial vehicle for an industrial purpose.

도 2는 본 발명에 따라, 마커위치를 식별하고, 착륙위치를 계산하는 일례를 설명하기 위한 도면이다.2 is a diagram for explaining an example of identifying a marker position and calculating a landing position according to the present invention.

도 2(a)에서와 같이, 무인비행체 자동착륙 장치(100)는, 직전 주기에 획득한 제1 적외선 영상을 구성하는 셀 중에서, 마커가 점유하는 점유셀을 확인하고, 또한 직전 주기에 연속되는 현재 주기에 획득한 제2 적외선 영상을 구성하는 셀 중에서, 상기 마커가 점유하는 점유셀을 확인할 수 있다. 이때, 제1 적외선 영상의 점유셀과, 제2 적외선 영상의 점유셀이 동일하다면, 이들 점유셀의 위치를, 마커가 배치되는 마커위치로서 식별할 수 있다.As shown in Fig. 2(a), the unmanned aerial vehicle automatic landing apparatus 100 checks the occupied cells occupied by the marker among cells constituting the first infrared image acquired in the immediately preceding period, and continues to the previous period. Among the cells constituting the second infrared image acquired in the current period, the occupied cell occupied by the marker may be identified. In this case, if the occupied cells of the first infrared image and the occupied cells of the second infrared image are the same, the positions of these occupied cells can be identified as the marker positions where the markers are placed.

도 2의 (a)에서, 무인비행체 자동착륙 장치(100)는 제1 적외선 영상과 제2 적외선 영상 내에 공통으로 마커가 점유하는 점유셀에 대한 GPS 좌표를, 마커위치 '136:30:00E, 36:30:00N'로 식별하고 있다.In (a) of FIG. 2, the apparatus 100 for automatic landing of the unmanned aerial vehicle 100 calculates the GPS coordinates of the occupied cells commonly occupied by the marker in the first infrared image and the second infrared image, the marker position '136:30:00E, It is identified as '36:30:00N'.

또한, 도 2(b)에서와 같이, 무인비행체 자동착륙 장치(100)는, 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 임계치와 비교하고, 상기 임계치 이상의 데이터 값을 1로 환산하여, 상기 적외선 영상에 대해 이진화 한 상태에서, 상기 1로 환산된 셀이, 규정된 수 만큼 인접되어 그룹핑되는, 상기 적외선 영상 내 특정영역을, 상기 마커위치로서 식별할 수 있다.In addition, as shown in FIG. 2(b), the unmanned aerial vehicle automatic landing apparatus 100 compares the data value of each of the plurality of cells constituting the infrared image with a threshold value, and converts the data value above the threshold value to 1. Thus, in the state of being binarized with respect to the infrared image, a specific region in the infrared image, in which cells converted to 1 are adjacent and grouped by a prescribed number, can be identified as the marker position.

도 2의 (b)에서, 무인비행체 자동착륙 장치(100)는 이진화 된 적외선 영상에서, 데이터 값을 1로 환산한 셀들이, 규정된 수 '5개'를 만족하여 그룹핑되어 있는 특정영역을 확인하고, 이 특정영역에 대한 GPS 좌표를 마커위치 '136:30:00E, 36:30:00N'로서 식별하고 있다.In (b) of FIG. 2, the unmanned aerial vehicle automatic landing apparatus 100 checks a specific area in which cells converted from a data value of 1 in the binary-coded infrared image satisfy a prescribed number of '5' and are grouped. And, the GPS coordinates for this specific area are identified as marker positions '136:30:00E, 36:30:00N'.

또한, 도 2(c)에서와 같이, 무인비행체 자동착륙 장치(100)는 마커에 대한, 지상무인이동체(B)로부터 배치거리 및 배치방향을, 마커 테이블로부터 검색하고, 상기 마커위치를 기준으로, 상기 배치거리 및 상기 배치방향에 따른 지상무인이동체(B)의 정차지점을 추정하여, 착륙위치를 계산할 수 있다.In addition, as shown in Fig. 2(c), the unmanned aerial vehicle automatic landing apparatus 100 searches for the arrangement distance and arrangement direction for the marker from the unmanned aerial vehicle B from the marker table, and based on the marker position. , It is possible to calculate the landing position by estimating the stopping point of the unmanned ground vehicle (B) according to the arrangement distance and the arrangement direction.

도 2의 (C)에서, 무인비행체 자동착륙 장치(100)는 지상무인이동체(B)로부터 W1(서쪽으로 1m) 지점에 배치된 마커의 마커위치(도 2(a)(b)에서 식별된 마커위치 '136:30:00E, 36:30:00N)을 기준으로, 배치거리 1m, 배치방향 동쪽으로 정차지점을 갖는 지상무인이동체(B)를 추정함으로써, 착륙위치를 계산할 수 있다.In Figure 2 (C), the unmanned aerial vehicle automatic landing device 100 is the marker position of the marker placed at the point W1 (1m west) from the unmanned aerial vehicle (B) (identified in Figure 2 (a) (b)). Based on the marker positions '136:30:00E, 36:30:00N), the landing position can be calculated by estimating the deployment distance 1m and the unmanned ground vehicle (B) having a stop point east of the deployment direction.

도 3은 본 발명에 따른 마커 영상인식을 통한 자동착륙 알고리즘을 설명하기 위한 도면이다.3 is a diagram for explaining an automatic landing algorithm through marker image recognition according to the present invention.

가우시안 스무싱을 사용하는, 기존의 자동착륙 알고리즘에서는, 움직이지 않는 물체 즉, 이전에도 점유되었고, 지금도 점유된 셀들도 보정 과정(Correction Step)에서 해당 셀의 데이터 값을 증가시키도록 함으로써 정지된 물체를 사라지지 않게 하였다.In the existing automatic landing algorithm using Gaussian smoothing, a stationary object, that is, a stationary object, that is, a stationary object by increasing the data value of the cell in the correction step, even the cells that were previously occupied and still occupied. Did not disappear.

이를 개선하기 위해, 시간이 지남에 따라 모든 셀들의 값을 일정 비율로 감소시키는 방법에서는, 지속적으로 입력이 있는 경우의 값을 증가시키거나, 주변의 셀들로부터 정보를 전파받지 못하면 값을 최저값으로 하고 있다. 이러한 방법은, 가우시안 스무싱을 사용하는 것에 비해 계산량을 대폭 줄일 수 있다.In order to improve this, in the method of decreasing the values of all cells at a certain rate over time, the value when there is an input continuously is increased, or if information is not transmitted from neighboring cells, the value is set to the lowest value. have. This method can significantly reduce the amount of computation compared to using Gaussian smoothing.

도 3에 도시한 바와 같이, 본 발명의 무인비행체 자동착륙 장치(100)는 ⓛ영상 입력, ②지능적 마커 인식, ③항법 정보 추출의 과정을 통해 마커 인식 알고리즘을 수행할 수 있다.As shown in Figure 3, the unmanned aerial vehicle automatic landing apparatus 100 of the present invention can perform a marker recognition algorithm through the process of ⓛ image input, ② intelligent marker recognition, and ③ navigation information extraction.

ⓛ영상 입력에서, 무인비행체 자동착륙 장치(100)는 지능적 마커 인식 신경망의 입력으로서, 2차원 이진을 입력할 수 있다.In the image input, the unmanned aerial vehicle automatic landing apparatus 100 may input a two-dimensional binary as an input of an intelligent marker recognition neural network.

이를 통해, 무인비행체 자동착륙 장치(100)는 촬영한 적외선 영상에서 임계치를 통해, 0과 1로 입력을 만들어주는 과정을 수행할 수 있다.Through this, the unmanned aerial vehicle automatic landing apparatus 100 may perform a process of generating inputs of 0 and 1 through a threshold value from the captured infrared image.

이 때 임계치를 높게 잡으면 필요한 정보들이 사라질 수 있으므로, 무인비행체 자동착륙 장치(100)는 가능한 한 낮게 임계치를 설정할 수 있다.At this time, if the threshold is set high, necessary information may disappear, so the unmanned aerial vehicle automatic landing apparatus 100 may set the threshold as low as possible.

②지능적 마커 인식에서, 무인비행체 자동착륙 장치(100)는 낮은 임계치로 인해 2차원 이진 입력에 잡음이 많이 포함될 수 있는데, 그 입력으로부터 지능적으로 마커를 식별해낼 수 있다.② In intelligent marker recognition, the unmanned aerial vehicle automatic landing device 100 may contain a lot of noise in the 2D binary input due to a low threshold, and the marker can be intelligently identified from the input.

③항법 정보 추출에서, 무인비행체 자동착륙 장치(100)는 지능적 마커 인식 알고리즘을 통해 나오는 출력에서 무인 비행체와 착륙 지점의 상대적 위치를 계산할 수 있다.③ In the navigation information extraction, the unmanned aerial vehicle automatic landing device 100 can calculate the relative position of the unmanned aerial vehicle and the landing point from the output through the intelligent marker recognition algorithm.

또한, 무인비행체 자동착륙 장치(100)는 계산된 상대적 위치로부터 항법 정보를 추출하여 제어기에 입력 전달할 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 may extract navigation information from the calculated relative position and transmit the input to the controller.

이에 따라, 무인비행체 자동착륙 장치(100)는 드론에 장착된 적외선 카메라로 착륙지점의 마커를 인식하는 방식을 채용하여, 착륙지점 인식 및 정밀 유도를 구현할 수 있다.Accordingly, the unmanned aerial vehicle automatic landing apparatus 100 employs a method of recognizing a marker of a landing point with an infrared camera mounted on a drone, and realizes a landing point recognition and precise guidance.

또한, 무인비행체 자동착륙 장치(100)는 고정 지점 및 이동 지점에도 안정적 착륙이 가능한 유도 기법을 구현할 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 may implement a guidance technique capable of stably landing at a fixed point and a moving point.

또한, 무인비행체 자동착륙 장치(100)는 일조조건에 강건한 특성으로 인해 잡음에 강하고, 야간에도 자동 착륙이 가능하며, 잡음에 강하기 때문에 드론의 안정성을 향상시킬 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 is resistant to noise due to its robust characteristics in sunlight conditions, can automatically land at night, and is resistant to noise, thereby improving the stability of a drone.

이하, 도 4에서는 본 발명의 실시예들에 따른 무인비행체 자동착륙 장치(100)의 작업 흐름을 상세히 설명한다.Hereinafter, in FIG. 4, the work flow of the unmanned aerial vehicle automatic landing apparatus 100 according to embodiments of the present invention will be described in detail.

도 4는 본 발명의 일실시예에 따른, 지상무인이동체로의 무인비행체 자동착륙 방법의 순서를 도시한 흐름도이다.4 is a flowchart illustrating a procedure of a method of automatically landing an unmanned aerial vehicle to a ground unmanned vehicle according to an embodiment of the present invention.

본 실시예에 따른 지상무인이동체로의 무인비행체 자동착륙 방법은 상술한 무인비행체 자동착륙 장치(100)에 의해 수행될 수 있다.The method of automatically landing an unmanned aerial vehicle to a ground unmanned vehicle according to the present embodiment may be performed by the above-described unmanned aerial vehicle automatic landing apparatus 100.

우선, 무인비행체 자동착륙 장치(100)는 무인비행체(A)에 장착되는 카메라로부터 지상무인이동체(B)를 촬영한 적외선 영상을 획득한다(410). 단계(410)는 착륙을 위해 지상무인이동체(B)를 추적하고, 추적된 지상무인이동체(B)를 촬영한 적외선 영상을 카메라를 통해 수집하는 과정일 수 있다.First, the unmanned aerial vehicle automatic landing apparatus 100 acquires an infrared image photographing the unmanned aerial vehicle B from a camera mounted on the unmanned aerial vehicle A (410). Step 410 may be a process of tracking an unmanned ground vehicle (B) for landing, and collecting an infrared image of the tracked unmanned ground vehicle (B) through a camera.

무인비행체(A)는 조종사가 직접 탑승하지 않고 원거리에서 무선으로 원격 조정이 가능하거나, 입력된 프로그램에 따라 비행이 가능한 비행체를 지칭할 수 있다. 이러한 무인비행체(A)는 적지 감시 등의 군사 분야, 및 환경 감시, 기상 관측, 민간 통신 중계 등의 비군사적 분야에서 전방위로 활용되고 있고, 예컨대 드론(drone)을 예시할 수 있다.The unmanned aerial vehicle (A) may refer to a vehicle that can be remotely controlled wirelessly from a distance without a pilot directly boarding, or can fly according to an input program. The unmanned aerial vehicle (A) is used in all directions in military fields such as enemy site monitoring, and non-military fields such as environmental monitoring, weather observation, and civil communication relay, and examples thereof may be a drone.

또한, 카메라는, 적외선에 대한 충분한 감도를 갖으면서 지상의 목표물을 촬영하여 적외선 영상을 생성하는 수단일 수 있다. 카메라는 적외선 건판이나 적외선에 민감한 전하결합소자(CCD)를 이용하여 적외선 영상을 생성할 수 있다.In addition, the camera may be a means for generating an infrared image by photographing a target on the ground while having sufficient sensitivity to infrared rays. The camera can generate an infrared image using an infrared keyboard or a charge-coupled device (CCD) sensitive to infrared rays.

또한, 지상무인이동체(B)는 원격 운용이나 자율 제어에 의하여 사람이 탑승하지 않고 임무를 수행할 수 있는 차량을 지칭할 수 있다. 본 발명에서의 지상무인이동체(B)는 무인비행체(A)의 착륙지 역할을 하고, 착륙한 무인비행체(A)를 탑재한 상태에서 필요한 지점으로 지상 이동하는 역할을 병행할 수 있다. 또한, 지상무인이동체(B)는 착륙한 무인비행체(A)에 대해, 전기 충전 서비스를 제공할 수 있다.In addition, the unmanned ground vehicle (B) may refer to a vehicle capable of performing a mission without a person on board by remote operation or autonomous control. In the present invention, the unmanned aerial vehicle (B) serves as a landing site for the unmanned aerial vehicle (A), and can simultaneously move to a necessary point while the unmanned aerial vehicle (A) is mounted. In addition, the ground unmanned vehicle (B) may provide an electric charging service to the landed unmanned aerial vehicle (A).

또한, 무인비행체 자동착륙 장치(100)는 적외선 영상 내에서, 지상무인이동체(B)와 연관되어 배치된 마커의 마커위치를 식별한다(420). 단계(420)는 획득한 적외선 영상에 대해, 영상 분석을 하여, 적외선 영상으로부터 마커를 특정해내는 과정일 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 identifies a marker position of a marker placed in association with the unmanned aerial vehicle B in the infrared image (420). Step 420 may be a process of identifying a marker from the infrared image by performing image analysis on the acquired infrared image.

마커는 무인비행체(A)에게 특정 지점을 통과하거나 특정 지점에 위치 함을 알리기 위한 수단일 수 있다. 본 발명에서는, 다수 개의 마커를 지상무인이동체(B) 주변으로 산개하여 배치 함으로써, 무인비행체(A)로 하여금 마커의 인식 후, 인식된 마커와의 상대적 위치를 추정하여 지상무인이동체(B)의 위치를 가늠하도록 할 수 있다.The marker may be a means for notifying the unmanned aerial vehicle (A) to pass through a specific point or to be located at a specific point. In the present invention, by distributing and arranging a plurality of markers around the ground unmanned vehicle (B), the unmanned aerial vehicle (A) recognizes the marker, and then estimates the relative position of the recognized marker to the unmanned ground vehicle (B). You can try to determine the location.

즉, 마커는 지상무인이동체(B)로부터 미리 선정된 거리와 방향의 지점에 배치되고 있기 때문에, 무인비행체 자동착륙 장치(100)에서 마커를 인식하여 인식된 마커가 배치되는 마커위치를 식별 함에 따라, 지상무인이동체(B)의 현 위치를, 식별된 마커위치를 통해 역으로 추정하도록 지원할 수 있다.That is, since the marker is placed at a point of a distance and direction previously selected from the unmanned aerial vehicle (B), the automatic landing device 100 recognizes the marker and identifies the marker location where the recognized marker is placed. , It can support to inversely estimate the current position of the unmanned aerial vehicle (B) through the identified marker position.

예컨대, 지상무인이동체(B)로부터 W1(서쪽으로 1m) 지점에 마커를 배치한 상태에서, 적외선 영상을 통해 마커를 인식하고 인식된 마커의 마커위치를 식별한다면, 무인비행체 자동착륙 장치(100)는 식별된 마커위치 'W1'으로부터 동쪽으로 1m 지점에 지상무인이동체(B)가 있음을 추정해 낼 수 있다.For example, if a marker is placed at the point W1 (1m to the west) from the unmanned aerial vehicle (B), if the marker is recognized through an infrared image and the marker position of the recognized marker is identified, the unmanned aerial vehicle automatic landing device 100 Can be estimated that there is an unmanned ground vehicle (B) 1m east of the identified marker position'W1'.

마커위치의 식별에 있어, 무인비행체 자동착륙 장치(100)는 상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 시간의 경과에 따라, 정해진 비율로 감소시킬 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 셀에 부여되는 데이터 값을 시간의 흐름에 따라 '0'으로 수렴되도록 하여, 과거의 정보가 제거되도록 하면서, 최신의 정보가 상대적으로 부각되어 보여지도록 할 수 있다.In identifying the marker position, the unmanned aerial vehicle automatic landing apparatus 100 may reduce a data value of each of a plurality of cells constituting the infrared image by a predetermined ratio over time. That is, the unmanned aerial vehicle automatic landing device 100 allows the data value assigned to the cell to converge to '0' over time, so that the past information is removed and the latest information is relatively highlighted. I can.

이에 따라, 무인비행체 자동착륙 장치(100)는 오브젝트가 점유하지 않는 비점유셀의 데이터 값을 설정된 최소값으로 결정할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 같은 위치에서 일정 시간을 정지하고 있고, 특정 셀을 지속적으로 점유하는 점유셀을 제외하고, 나머지의 비점유셀에 대해, 할당되는 데이터 값을 시간 흐름에 비례하여 감소시킬 수 있다.Accordingly, the unmanned aerial vehicle automatic landing apparatus 100 may determine a data value of a non-occupied cell that is not occupied by an object as a set minimum value. That is, the unmanned aerial vehicle automatic landing apparatus 100 stops for a certain time at the same location, and saves the allocated data values for the remaining non-occupied cells in time, except for the occupied cells that continuously occupy a specific cell. It can be reduced proportionally.

또한, 무인비행체 자동착륙 장치(100)는 직전 주기에 획득한 제1 적외선 영상을 구성하는 셀 중에서, 상기 마커가 점유하는 점유셀을 확인할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 제1 적외선 영상에서 마커로 인해 셀이 점유되는 점유셀을 인지할 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 may check the occupied cells occupied by the marker among cells constituting the first infrared image acquired in the immediately preceding period. That is, the unmanned aerial vehicle automatic landing apparatus 100 may recognize the occupied cell occupied by the cell due to the marker in the first infrared image.

또한, 무인비행체 자동착륙 장치(100)는 상기 직전 주기 이후의 현재 주기에 획득한 제2 적외선 영상 내, 상기 점유셀이 지속되어 포함되면, 상기 점유셀이 갖는 데이터 값을 감소시키지 않고 유지할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 시간이 흘러, 현재 주기가 되어 획득되는 제2 적외선 영상에도, 앞서의 마커로 인해 셀이 점유되는 점유셀이 지속(마커가 직전 주기에도 현재 주기에도 계속적으로 특정 셀을 점유)하면, 해당 점유셀이 갖는 데이터 값을 그대로 유지시킬 수 있다.In addition, when the occupied cell is continuously included in the second infrared image acquired in the current period after the immediately preceding period, the unmanned aerial vehicle automatic landing apparatus 100 can maintain the data value of the occupied cell without reducing it. . In other words, the unmanned aerial vehicle automatic landing apparatus 100 continues with the second infrared image acquired as the current cycle as time passes, and the occupied cell occupied by the cell due to the previous marker (marker continues to be in the previous cycle and the current cycle). If a specific cell is occupied), the data value of the corresponding occupied cell can be maintained.

이후, 무인비행체 자동착륙 장치(100)는 상기 데이터 값이 유지되는 상기 점유셀의 위치를, 상기 마커위치로서 식별할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 위치가 지상에 고정되는 마커로 인해, 연속되는 주기에 획득되는 복수의 적외선 영상에서 점유셀이 지속하여 나타나면, 해당 점유셀의 위치를 마커위치로서 식별할 수 있다.Thereafter, the unmanned aerial vehicle automatic landing apparatus 100 may identify the position of the occupied cell in which the data value is maintained as the marker position. That is, when the occupied cell continues to appear in a plurality of infrared images acquired in successive periods due to a marker whose position is fixed on the ground, the unmanned aerial vehicle automatic landing device 100 can identify the position of the occupied cell as a marker position. I can.

도 2의 (a)에서, 무인비행체 자동착륙 장치(100)는 제1 적외선 영상과 제2 적외선 영상 내에 공통으로 마커가 점유하는 점유셀을 확인하고, 이 점유셀에 대한 GPS 좌표를 마커위치 '136:30:00E, 36:30:00N'로서 식별할 수 있다.In (a) of Figure 2, the unmanned aerial vehicle automatic landing apparatus 100 checks the occupied cells commonly occupied by the marker in the first infrared image and the second infrared image, and sets the GPS coordinates of the occupied cells to the marker position ' It can be identified as 136:30:00E, 36:30:00N'.

다른 실시예에서, 무인비행체 자동착륙 장치(100)는, 상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 임계치와 비교할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 상기 적외선 영상 내에서 정보 가치가 있는 영역을 선별해 내기 위해, 기준 값인 임계치를 설정하여, 셀 각각으로 데이터 값과 임계치를 비교 함으로써 적외선 영상 내에서 마커의 위치를 찾을 수 있다.In another embodiment, the unmanned aerial vehicle automatic landing apparatus 100 may compare a data value of each of a plurality of cells constituting the infrared image with a threshold value. That is, the unmanned aerial vehicle automatic landing apparatus 100 sets a threshold value, which is a reference value, in order to select an area with information value in the infrared image, and compares the data value with the threshold value for each cell. You can find the location.

또한, 무인비행체 자동착륙 장치(100)는 상기 비교 결과, 상기 임계치 이상의 데이터 값을 1로 환산하고, 상기 임계치 미만의 데이터 값을 0으로 환산하여, 상기 적외선 영상에 대해 이진화 할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 임계치 이상으로 정보로서 가치가 있다고 판단되는 데이터 값을 1로 전환하고, 임계치 미만으로 노이즈로 판단되는 데이터 값을 0으로 전환하여, 상기 적외선 영상을 0과 1의 이진 데이터로 표현할 수 있다.In addition, as a result of the comparison, the unmanned aerial vehicle automatic landing apparatus 100 may convert a data value equal to or greater than the threshold value to 1, convert a data value less than the threshold value to 0, and perform binarization for the infrared image. That is, the unmanned aerial vehicle automatic landing apparatus 100 converts a data value determined to be valuable as information above a threshold value to 1, converts a data value determined as noise below the threshold value to 0, and converts the infrared image to 0 It can be expressed as binary data of 1.

이때, 상기 임계치는, 상기 1로 환산되는 데이터 값의 개수를 고려하여 정할 수 있다. 바람직하게, 임계치는 가능한 작게 설정 함으로써, 1로 환산되는 데이터 값이 적어도 필요한 개수를 넘도록 할 수 있다. 예컨대, 마커위치를 식별하는 데에, 10개의 데이터 값이 필요한 발명 환경하에서, 1로 환산되는 데이터 값이 10개 이상이 되도록, 임계치의 크기를 적절히 조정하여 정할 수 있다.In this case, the threshold value may be determined in consideration of the number of data values converted to one. Preferably, by setting the threshold as small as possible, the number of data values converted to 1 may exceed at least a required number. For example, in an invention environment where 10 data values are required to identify the marker position, the size of the threshold value may be appropriately adjusted so that the data value converted to 1 is 10 or more.

이후, 무인비행체 자동착륙 장치(100)는, 상기 0으로 환산된 셀을 제거하고, 상기 1로 환산된 셀이, 규정된 수 만큼 인접되어 그룹핑되는, 상기 적외선 영상 내 특정영역을, 상기 마커위치로서 식별할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는1로 환산되어 정보 가치가 있는 셀을 남긴 후, 남겨진 셀 만을 대상으로 인접하는 정도에 따라 그룹핑 하여 규정된 수 이상으로 그룹핑되는 특정영역을 마커위치로서 식별할 수 있다.Thereafter, the unmanned aerial vehicle automatic landing apparatus 100 removes the cells converted to 0, and the cells converted to 1 are grouped adjacent to each other by a prescribed number, and the specific area in the infrared image is located at the marker position. Can be identified as In other words, the unmanned aerial vehicle automatic landing device 100 is converted to 1 to leave a cell with information value, and then groups only the remaining cells according to their proximity to identify a specific area grouped above a prescribed number as a marker location. can do.

도 2의 (b)에서, 무인비행체 자동착륙 장치(100)는 이진화 된 적외선 영상에서, 데이터 값을 1로 환산한 셀들이, 규정된 수 '5개'를 만족하여 그룹핑되어 있는 특정영역을 확인하고, 이 특정영역에 대한 GPS 좌표를 마커위치 '136:30:00E, 36:30:00N'로서 식별하는 것을 예시하고 있다.In (b) of FIG. 2, the unmanned aerial vehicle automatic landing apparatus 100 checks a specific area in which cells converted from a data value of 1 in the binary-coded infrared image satisfy a prescribed number of '5' and are grouped. And, it is exemplified that the GPS coordinates for this specific region are identified as marker positions '136:30:00E, 36:30:00N'.

또한, 무인비행체 자동착륙 장치(100)는 상기 마커위치를 고려하여, 지상무인이동체(B)가 현재 위치하는 착륙위치를 계산한다(430). 단계(430)는 앞서 식별된 마커위치와, 마커의 배치시 지상무인이동체(B)와의 거리 관계를 이용하여, 지상무인이동체(B)의 현 위치를 연산해내는 과정일 수 있다.In addition, the unmanned aerial vehicle automatic landing apparatus 100 calculates a landing position at which the unmanned aerial vehicle B is currently located in consideration of the marker position (430). Step 430 may be a process of calculating the current position of the unmanned ground vehicle (B) by using the previously identified marker position and the distance relationship between the unmanned ground vehicle (B) when the marker is placed.

착륙위치의 계산에 있어, 무인비행체 자동착륙 장치(100)는 상기 마커에 대한, 상기 지상무인이동체(B)로부터 배치거리 및 배치방향을, 마커 테이블로부터 검색할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 지상무인이동체(B)를 기준으로 한, 마커의 거리 정보를, 마커 테이블로부터 추출할 수 있다.In the calculation of the landing position, the unmanned aerial vehicle automatic landing apparatus 100 may retrieve the arrangement distance and arrangement direction for the marker from the unmanned ground vehicle (B) from the marker table. That is, the unmanned aerial vehicle automatic landing apparatus 100 may extract distance information of the marker based on the unmanned aerial vehicle B from the marker table.

이를 위해 본 발명에서는, 마커 배치시, 각 마커가 배치되는 거리 정보를 산출하여 마커 테이블에 미리 기록할 수 있다. 예컨대, 본 발명의 운영자는, 지상무인이동체(B)로부터 서쪽으로 1m 떨어져 배치되는 '마커 1'에 대해 거리 정보 W1을 부여하여 마커 테이블에 기록할 수 있고, 지상무인이동체(B)로부터 동남쪽으로 2m 떨어져 배치되는 '마커 2'에 대해 거리 정보 ES2을 부여하여 마커 테이블에 기록할 수 있다.To this end, in the present invention, when placing markers, distance information at which each marker is placed may be calculated and recorded in advance in a marker table. For example, the operator of the present invention may assign distance information W1 to'Marker 1'disposed 1m west of the unmanned ground vehicle (B) and record it in the marker table, and to the southeast from the unmanned ground vehicle (B). Distance information ES2 can be assigned to'Marker 2'placed 2m apart and recorded in the marker table.

이후, 무인비행체 자동착륙 장치(100)는 상기 마커위치를 기준으로, 상기 배치거리 및 상기 배치방향에 따른 지상무인이동체(B)의 정차지점을 추정하여, 상기 착륙위치를 계산할 수 있다. 즉, 무인비행체 자동착륙 장치(100)는 마커위치와 지상무인이동체(B)와의 상대적 위치를 감안하여, 지상무인이동체(B)가 고정되어 위치하는 정차지점을 추정할 수 있다.Thereafter, the unmanned aerial vehicle automatic landing apparatus 100 may calculate the landing position by estimating the stop point of the unmanned aerial vehicle B according to the arrangement distance and the arrangement direction based on the marker position. That is, the unmanned aerial vehicle automatic landing apparatus 100 may estimate a stop point at which the unmanned ground vehicle B is fixed and located in consideration of the marker position and the relative position of the ground unmanned vehicle B.

도 2의 (C)에서, 무인비행체 자동착륙 장치(100)는 지상무인이동체(B)로부터 W1(서쪽으로 1m) 지점에 배치된 마커의 마커위치(도 2(a)(b)에서 식별된 마커위치 '136:30:00E, 36:30:00N)을 기준으로, 배치거리 1m, 배치방향 동쪽으로 정차지점을 갖는 지상무인이동체(B)를 추정함으로써, 착륙위치를 계산할 수 있다.In Figure 2 (C), the unmanned aerial vehicle automatic landing device 100 is the marker position of the marker placed at the point W1 (1m west) from the unmanned aerial vehicle (B) (identified in Figure 2 (a) (b)). Based on the marker positions '136:30:00E, 36:30:00N), the landing position can be calculated by estimating the deployment distance 1m and the unmanned ground vehicle (B) having a stop point east of the deployment direction.

또한, 무인비행체 자동착륙 장치(100)는 상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 무인비행체(A)를 지상무인이동체(B)에 착륙시킨다(440). 단계(440)는 목적지를, 계산된 착륙위치로 하는 착륙경로를 작성하고, 작성된 착륙경로에 준해 무인비행체(A)에 대해 착륙을 유도하는 과정일 수 있다.In addition, the unmanned aerial vehicle automatic landing device 100 lands the unmanned aerial vehicle A on the unmanned ground vehicle B according to the navigation information including the landing path to the landing position (440). Step 440 may be a process of creating a landing route with a destination as a calculated landing position, and inducing a landing for the unmanned aerial vehicle A according to the created landing route.

본 발명의 일실시예에 따르면, 무인비행체의 비행환경에서 흔히 발생하는 불규칙적인 돌풍을 이겨내고 정해진 위치에 자동으로, 무인비행체를 정밀하게 이착륙 시키는 유도제어기법을 구현하는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.According to an embodiment of the present invention, an unmanned aerial vehicle to a ground unmanned vehicle implements an induction control technique that overcomes irregular gusts that commonly occur in the flight environment of an unmanned aerial vehicle and automatically takes off and lands an unmanned aerial vehicle at a predetermined location. An automatic landing method and an unmanned aerial vehicle automatic landing device can be provided.

또한, 본 발명의 일실시예에 따르면, 바람에 취약한 무인비행체의 내풍성을 개선하여 비행 성능을 개선하고, 돌풍이 부는 야외에서 무인비행체를 정밀하게 자동으로 이착륙하는 유도제어 기술을 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to improve the wind resistance of an unmanned aerial vehicle vulnerable to wind to improve flight performance, and provide an induction control technology that accurately and automatically takes off and lands an unmanned aerial vehicle in a gust of outdoor. .

또한, 본 발명의 일실시예에 따르면, 유도제어 알고리즘 개선만으로, 무인비행체에 대한 내풍성을 획기적으로 향상시킬 수 있다.In addition, according to an embodiment of the present invention, only by improving the guidance control algorithm, it is possible to dramatically improve the wind resistance of the unmanned aerial vehicle.

또한, 본 발명의 일실시예에 따르면, 산업용도의 무인비행체의 안전성과 운용성을 크게 개선시키는, 지상무인이동체로의 무인비행체 자동착륙 방법 및 무인비행체 자동착륙 장치를 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to provide an unmanned aerial vehicle automatic landing method and an unmanned aerial vehicle automatic landing apparatus that greatly improves the safety and operability of an unmanned aerial vehicle for an industrial purpose.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.

100 : 무인비행체 자동착륙 장치
110 : 획득부 120 : 처리부
130 : 계산부 140 : 유도부
100: unmanned aerial vehicle automatic landing device
110: acquisition unit 120: processing unit
130: calculation unit 140: induction unit

Claims (12)

무인비행체에 장착되는 카메라로부터 지상무인이동체를 촬영한 적외선 영상을 획득하는 단계;
상기 적외선 영상 내에서, 상기 지상무인이동체와 연관되어 배치된 마커의 마커위치를 식별하는 단계;
상기 마커위치를 고려하여, 상기 지상무인이동체가 현재 위치하는 착륙위치를 계산하는 단계; 및
상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 상기 무인비행체를 상기 지상무인이동체에 착륙시키는 단계
를 포함하고,
상기 착륙위치를 계산하는 단계는,
상기 마커에 대한, 상기 지상무인이동체로부터 배치거리 및 배치방향을, 마커 테이블로부터 검색하는 단계; 및
상기 마커위치를 기준으로, 상기 배치거리 및 상기 배치방향에 따른 상기 지상무인이동체의 정차지점을 추정하여, 상기 착륙위치를 계산하는 단계
를 포함하는 지상무인이동체로의 무인비행체 자동착륙 방법.
Obtaining an infrared image of the unmanned aerial vehicle from a camera mounted on the unmanned aerial vehicle;
Identifying a marker position of a marker disposed in association with the unmanned aerial vehicle in the infrared image;
Calculating a landing position at which the unmanned ground vehicle is currently located in consideration of the marker position; And
Landing the unmanned aerial vehicle on the ground unmanned vehicle according to the navigation information including the landing route to the landing position
Including,
The step of calculating the landing position,
Retrieving an arrangement distance and arrangement direction for the marker from the unmanned aerial vehicle from a marker table; And
Calculating the landing position by estimating a stopping point of the unmanned aerial vehicle according to the arrangement distance and the arrangement direction based on the marker position
Automatic landing method of an unmanned aerial vehicle to a ground unmanned vehicle including a.
제1항에 있어서,
상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 시간의 경과에 따라, 정해진 비율로 감소시켜, 오브젝트가 점유하지 않는 비점유셀의 데이터 값을 설정된 최소값으로 결정하는 단계
를 더 포함하는 지상무인이동체로의 무인비행체 자동착륙 방법.
The method of claim 1,
Determining a data value of a non-occupied cell not occupied by an object as a set minimum value by reducing a data value of each of the plurality of cells constituting the infrared image by a predetermined ratio over time
An unmanned aerial vehicle automatic landing method to a ground unmanned vehicle further comprising a.
제2항에 있어서,
상기 마커위치를 식별하는 단계는,
직전 주기에 획득한 제1 적외선 영상을 구성하는 셀 중에서, 상기 마커가 점유하는 점유셀을 확인하는 단계;
상기 직전 주기 이후의 현재 주기에 획득한 제2 적외선 영상 내, 상기 점유셀이 지속되어 포함되면, 상기 점유셀이 갖는 데이터 값을 감소시키지 않고 유지하는 단계; 및
상기 데이터 값이 유지되는 상기 점유셀의 위치를, 상기 마커위치로서 식별하는 단계;
를 포함하는 지상무인이동체로의 무인비행체 자동착륙 방법.
The method of claim 2,
The step of identifying the marker location,
Checking an occupied cell occupied by the marker from among cells constituting the first infrared image acquired in the immediately preceding period;
If the occupied cell is continuously included in the second infrared image acquired in the current period after the previous period, maintaining the data value of the occupied cell without decreasing; And
Identifying a location of the occupied cell in which the data value is maintained as the marker location;
Automatic landing method of an unmanned aerial vehicle to a ground unmanned vehicle including a.
제1항에 있어서,
상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 임계치와 비교하는 단계; 및
상기 비교 결과, 상기 임계치 이상의 데이터 값을 1로 환산하고, 상기 임계치 미만의 데이터 값을 0으로 환산하여, 상기 적외선 영상에 대해 이진화 하는 단계
를 더 포함하고,
상기 임계치는,
상기 1로 환산되는 데이터 값의 개수를 고려하여 정하는,
지상무인이동체로의 무인비행체 자동착륙 방법.
The method of claim 1,
Comparing a data value of each of a plurality of cells constituting the infrared image with a threshold value; And
As a result of the comparison, converting a data value above the threshold value to 1, converting a data value below the threshold value to 0, and binarizing the infrared image
Including more,
The threshold is,
Determined in consideration of the number of data values converted to 1,
How to automatically land an unmanned aerial vehicle to an unmanned ground vehicle.
제4항에 있어서,
상기 마커위치를 식별하는 단계는,
상기 0으로 환산된 셀을 제거하고, 상기 1로 환산된 셀이, 규정된 수 만큼 인접되어 그룹핑되는, 상기 적외선 영상 내 특정영역을, 상기 마커위치로서 식별하는 단계
를 포함하는 지상무인이동체로의 무인비행체 자동착륙 방법.
The method of claim 4,
The step of identifying the marker location,
Removing the cells converted to 0, and identifying a specific region in the infrared image, in which the cells converted to 1 are adjacent and grouped by a prescribed number, as the marker location
Automatic landing method of an unmanned aerial vehicle to a ground unmanned vehicle including a.
삭제delete 무인비행체에 장착되는 카메라로부터 지상무인이동체를 촬영한 적외선 영상을 획득하는 획득부;
상기 적외선 영상 내에서, 상기 지상무인이동체와 연관되어 배치된 마커의 마커위치를 식별하는 처리부;
상기 마커위치를 고려하여, 상기 지상무인이동체가 현재 위치하는 착륙위치를 계산하는 계산부; 및
상기 착륙위치로의 착륙경로를 포함하는 항법 정보에 따라, 상기 무인비행체를 상기 지상무인이동체에 착륙시키는 유도부
를 포함하고,
상기 계산부는,
상기 마커에 대한, 상기 지상무인이동체로부터 배치거리 및 배치방향을, 마커 테이블로부터 검색하고,
상기 마커위치를 기준으로, 상기 배치거리 및 상기 배치방향에 따른 상기 지상무인이동체의 정차지점을 추정하여, 상기 착륙위치를 계산하는
무인비행체 자동착륙 장치.
An acquisition unit that acquires an infrared image photographed of the unmanned aerial vehicle from a camera mounted on the unmanned aerial vehicle;
A processing unit that identifies a marker position of a marker disposed in association with the unmanned aerial vehicle in the infrared image;
A calculation unit that calculates a landing position at which the unmanned ground vehicle is currently located in consideration of the marker position; And
Guidance unit for landing the unmanned aerial vehicle on the ground unmanned vehicle according to navigation information including the landing path to the landing position
Including,
The calculation unit,
For the marker, the arrangement distance and the arrangement direction from the ground unmanned vehicle are searched from the marker table,
Based on the marker position, calculating the landing position by estimating the stopping point of the unmanned ground vehicle according to the arrangement distance and the arrangement direction.
Automatic landing device for unmanned aerial vehicles.
제7항에 있어서,
상기 처리부는,
상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 시간의 경과에 따라, 정해진 비율로 감소시켜, 오브젝트가 점유하지 않는 비점유셀의 데이터 값을 설정된 최소값으로 결정하는
무인비행체 자동착륙 장치.
The method of claim 7,
The processing unit,
The data value of each of the plurality of cells constituting the infrared image is decreased by a predetermined ratio over time, and the data value of the non-occupied cell not occupied by the object is determined as a set minimum value.
Automatic landing device for unmanned aerial vehicles.
제8항에 있어서,
상기 처리부는,
직전 주기에 획득한 제1 적외선 영상을 구성하는 셀 중에서, 상기 마커가 점유하는 점유셀을 확인하고,
상기 직전 주기 이후의 현재 주기에 획득한 제2 적외선 영상 내, 상기 점유셀이 지속되어 포함되면, 상기 점유셀이 갖는 데이터 값을 감소시키지 않고 유지하며,
상기 데이터 값이 유지되는 상기 점유셀의 위치를, 상기 마커위치로서 식별하는
무인비행체 자동착륙 장치.
The method of claim 8,
The processing unit,
Among the cells constituting the first infrared image acquired in the previous period, the occupied cells occupied by the marker are identified,
If the occupied cell is continuously included in the second infrared image acquired in the current period after the previous period, the data value of the occupied cell is maintained without decreasing,
Identifying the position of the occupied cell in which the data value is maintained as the marker position
Automatic landing device for unmanned aerial vehicles.
제7항에 있어서,
상기 처리부는,
상기 적외선 영상을 구성하는 복수의 셀 각각이 갖는 데이터 값을, 임계치와 비교하고,
상기 비교 결과, 상기 임계치 이상의 데이터 값을 1로 환산하고, 상기 임계치 미만의 데이터 값을 0으로 환산하여, 상기 적외선 영상에 대해 이진화 하며,
상기 임계치는,
상기 1로 환산되는 데이터 값의 개수를 고려하여 정하는,
무인비행체 자동착륙 장치.
The method of claim 7,
The processing unit,
A data value of each of the plurality of cells constituting the infrared image is compared with a threshold value,
As a result of the comparison, the data value above the threshold is converted to 1, the data value below the threshold is converted to 0, and the infrared image is binarized,
The threshold is,
Determined in consideration of the number of data values converted to 1,
Automatic landing device for unmanned aerial vehicles.
제10항에 있어서,
상기 처리부는,
상기 0으로 환산된 셀을 제거하고, 상기 1로 환산된 셀이, 규정된 수 만큼 인접되어 그룹핑되는, 상기 적외선 영상 내 특정영역을, 상기 마커위치로서 식별하는
무인비행체 자동착륙 장치.
The method of claim 10,
The processing unit,
Removing the cells converted to 0, and identifying a specific region in the infrared image, in which the cells converted to 1 are adjacent and grouped by a prescribed number, as the marker position
Automatic landing device for unmanned aerial vehicles.
삭제delete
KR1020190058018A 2019-05-17 2019-05-17 Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles KR102184693B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190058018A KR102184693B1 (en) 2019-05-17 2019-05-17 Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190058018A KR102184693B1 (en) 2019-05-17 2019-05-17 Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles

Publications (2)

Publication Number Publication Date
KR20200132458A KR20200132458A (en) 2020-11-25
KR102184693B1 true KR102184693B1 (en) 2020-11-30

Family

ID=73641740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190058018A KR102184693B1 (en) 2019-05-17 2019-05-17 Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles

Country Status (1)

Country Link
KR (1) KR102184693B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102280753B1 (en) * 2020-02-28 2021-07-21 세종대학교산학협력단 Technique for marker-based landing of unmanned aerial vehicle
CN112462791A (en) * 2020-12-02 2021-03-09 成都时代星光科技有限公司 Full-automatic high-precision flight landing system and method for airport of vehicle-mounted unmanned aerial vehicle
KR102550263B1 (en) * 2021-08-12 2023-07-03 광주과학기술원 UAV, landing method of the UAV, landing system of UAV system
CN113805608B (en) * 2021-09-22 2024-03-05 一飞智控(天津)科技有限公司 Unmanned aerial vehicle formation sky landing method, system and medium based on automatic grouping planning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160023762A1 (en) * 2014-05-30 2016-01-28 SZ DJI Technology Co., Ltd Systems and methods for uav docking

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160102844A (en) * 2015-02-23 2016-08-31 한남대학교 산학협력단 System and method for guiding landing of multi-copter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160023762A1 (en) * 2014-05-30 2016-01-28 SZ DJI Technology Co., Ltd Systems and methods for uav docking

Also Published As

Publication number Publication date
KR20200132458A (en) 2020-11-25

Similar Documents

Publication Publication Date Title
KR102184693B1 (en) Automatic landing method of unmanned aerial vehicle into ground-free vehicle, and automatic landing device of unmanned aerial vehicles
CN109144097B (en) Obstacle or ground recognition and flight control method, device, equipment and medium
CN108496129B (en) Aircraft-based facility detection method and control equipment
CN108109437B (en) Unmanned aerial vehicle autonomous route extraction and generation method based on map features
KR101157484B1 (en) Uav automatic recovering method
CN108390645A (en) Photovoltaic panel Fault Locating Method based on unmanned plane and thermal imaging
US11932391B2 (en) Wireless communication relay system using unmanned device and method therefor
CN105651780A (en) Method, apparatus and system for detecting state of blower blade through unmanned plane
CN106774392A (en) The dynamic programming method of flight path during a kind of power circuit polling
CN104808685A (en) Vision auxiliary device and method for automatic landing of unmanned aerial vehicle
CN204757989U (en) Unmanned aerial vehicle landing navigation
JP6791365B2 (en) Information processing equipment, information processing methods, and information processing programs
US11200810B2 (en) Drone collision avoidance
CN111507164B (en) Method and apparatus for updating an object detection system for a class of a detectable class in real time
CN110687919B (en) Unmanned aerial vehicle autonomous flight control method for hydropower station water pipeline inspection
CN112270267A (en) Camera shooting recognition system capable of automatically capturing line faults
CN110989678A (en) Oil field inspection fixed point data acquisition system and method based on multiple unmanned aerial vehicles
JP2019200734A (en) Information processing program, information processing method, and information processing device
CN207850190U (en) A kind of anti-unmanned aerial vehicle control system
CN110211159A (en) A kind of aircraft position detection system and method based on image/video processing technique
RU155323U1 (en) UNMANNED AIRCRAFT CONTROL SYSTEM
CN110362117B (en) Unmanned aerial vehicle path planning method and equipment, unmanned aerial vehicle controller and storage medium
KR101537324B1 (en) Automatic carrier take-off and landing System based on image processing
AU2021105629A4 (en) System and Method for Monitoring, Detecting and Counting Fruits in a Field
KR102349818B1 (en) Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant