KR20220068606A - Automatic landing algorithm of drone considering partial images - Google Patents

Automatic landing algorithm of drone considering partial images Download PDF

Info

Publication number
KR20220068606A
KR20220068606A KR1020200155549A KR20200155549A KR20220068606A KR 20220068606 A KR20220068606 A KR 20220068606A KR 1020200155549 A KR1020200155549 A KR 1020200155549A KR 20200155549 A KR20200155549 A KR 20200155549A KR 20220068606 A KR20220068606 A KR 20220068606A
Authority
KR
South Korea
Prior art keywords
landing
drone
algorithm
image
landing pad
Prior art date
Application number
KR1020200155549A
Other languages
Korean (ko)
Inventor
이동진
김혜지
박천만
이성봉
Original Assignee
한서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한서대학교 산학협력단 filed Critical 한서대학교 산학협력단
Priority to KR1020200155549A priority Critical patent/KR20220068606A/en
Publication of KR20220068606A publication Critical patent/KR20220068606A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • B64C2201/141
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an automatic landing algorithm of a drone considering a partial image and, more specifically, to an automatic landing algorithm of a drone considering a partial image, which may use an image filmed by an image sensor to generate learning data with respect to the entire and partial image of a landing pad before recognizing the landing pad by using a convolutional neural network (CNN) algorithm, estimate the central point to estimate the location of the landing pad, estimate the landing location by utilizing the location and altitude of the drone, the pixel value of the central point of the landing pad, the characteristic parameter of the image sensor and the like, and correct the estimated location using a Kalman filter before utilizing the estimated landing location in order to generate a speed command to perform landing, thereby inducing a precise landing.

Description

부분 영상을 고려한 드론의 자동 착륙 알고리즘{AUTOMATIC LANDING ALGORITHM OF DRONE CONSIDERING PARTIAL IMAGES}Automatic landing algorithm of drone considering partial image {AUTOMATIC LANDING ALGORITHM OF DRONE CONSIDERING PARTIAL IMAGES}

본 발명은 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 관한 것으로서, 상세하게는 영상 센서로부터 촬영된 영상을 이용하여 CNN(Convolutional Neural Network) 알고리즘을 이용하여 착륙 패드를 인식하고, 중심점을 추정하여 착륙 패드 위치를 추정한 다음, 드론의 위치 및 고도, 착륙 패드의 중심점 픽셀 값, 영상 센서의 특성 파라미터 등을 활용한 착륙 위치 추정, 칼만 필터를 활용하여 추정 위치를 보정한 후 추정한 착륙 위치를 활용해서 착륙 수행을 위한 속도 명령을 생성하여 정밀 착륙을 유도하도록 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 관한 것이다.The present invention relates to an automatic landing algorithm for a drone in consideration of partial images, and in detail, using an image captured from an image sensor to recognize a landing pad using a Convolutional Neural Network (CNN) algorithm, and to estimate the center point of the landing pad After estimating the position, estimate the landing position using the position and altitude of the drone, the pixel value of the center point of the landing pad, and the characteristic parameters of the image sensor, correct the estimated position using the Kalman filter, and then use the estimated landing position. It relates to an automatic landing algorithm of a drone that considers partial images to induce precision landing by generating a speed command for landing performance.

드론은 원격 조정에 의해 비행하거나 지정된 경로를 따라 자율적으로 비행하는 비행체로서, 카메라 촬영, 군사적 용도, 운송 분야, 보안 분야, 개인적 용도 등 다양한 분야에서 활용되고 있다. 드론은 운용자의 무선 조작 신호에 의해 수동으로 운용되는 소형 무인 비행체로 활용되는 것이 일반적이고, 유인 드론도 상용화 추세에 있다.Drones are flying vehicles that fly by remote control or autonomously fly along a designated route, and are used in various fields such as camera shooting, military use, transportation, security, and personal use. Drones are generally used as small unmanned aerial vehicles operated manually by the operator's radio operation signal, and manned drones are also on the trend of commercialization.

드론을 활용한 물류 서비스는 기존 물류 서비스 대비 신속하고 정확하며, 위험지역에도 제공 가능 등의 장점으로 인하여 드론 물류 서비스의 요구도가 증가하고 있다. 드론 물류 서비스를 위해서는 통신, 교통관리, 장애물 탐지/회피, 정밀 착륙 등의 기술이 요구되며, 이와 관련한 다양한 연구가 수행되고 있고, 특히 영상을 이용한 착륙의 연구가 수행되고 있다.Logistics services using drones are faster and more accurate than existing logistics services, and the demand for drone logistics services is increasing due to advantages such as being able to provide even in hazardous areas. For drone logistics service, technologies such as communication, traffic management, obstacle detection/avoidance, and precision landing are required, and various studies are being conducted in this regard, and in particular, research on landing using images is being conducted.

일례로, 국내 등록특허 제10-2022695호인 드론 착륙을 제어하기 위한 방법 및 장치가 개시되어 있다.As an example, a method and apparatus for controlling drone landing, which is Korean Patent Registration No. 10-2022695, is disclosed.

상기 드론 착륙을 제어하기 위한 방법 및 장치는 드론의 초음파 센서와 GPS 센서를 이용하여, 타겟을 인식하고, 타겟의 제1 위치를 검출하고, 드론의 광학 센서와 IR 센서를 이용하여, 타겟의 RGB 영상과 IR 영상을 획득하고, RGB 영상들 및 IR 영상들로부터 드론이 착륙할 타겟들을 인식하도록 학습된 인식기를 이용하여, RGB 영상과 IR 영상으로부터 타겟을 드론이 착륙할 착륙 타겟으로 인식하고, 착륙 타겟인 타겟의 제2 위치를 검출하고, 제1 위치와 제2 위치를 이용하여, 착륙 타겟인 타겟의 정밀 위치를 생성하고, 착륙 타겟인 타겟의 정밀 위치와 드론의 위치에 기초하여, 드론의 착륙을 제어할 수 있다.The method and apparatus for controlling the drone landing uses an ultrasonic sensor and a GPS sensor of a drone to recognize a target, detect a first position of the target, and use an optical sensor and an IR sensor of the drone to control the RGB of the target Acquire an image and an IR image, and use the recognizer learned to recognize the target on which the drone will land from the RGB images and the IR image. Detects a second position of a target that is a target, uses the first position and second position to generate a precise position of a target that is a landing target, and based on the precise position of the target that is a landing target and the position of the drone, Landing can be controlled.

또한, 국내 등록특허 제10-2079727호인 비전 인식을 이용한 자동 드론 착륙 장치 및 방법은 드론의 고도에 따라 드론이 착륙할 착륙 지점의 크기를 변경하여 표시할 수 있고, 드론이 착륙 지점을 촬영하여 감지된 착륙 지점에 착륙할 수 있다.In addition, the domestic registered patent No. 10-2079727, an automatic drone landing apparatus and method using vision recognition, can change and display the size of the landing point where the drone will land according to the altitude of the drone, and detect the drone by photographing the landing point. may land at the designated landing site.

그러나, 이러한 종래의 영상을 이용한 드론 착륙은 단순히 타겟의 위치만을 인식하여 착륙시킬 뿐 정밀 착륙을 수행할 수 없는 문제점이 있다. 또한 영상을 이용한 착륙을 수행할 경우, 고도가 하강함에 따라 영상 센서의 화각으로 인한 촬영 영역 제한, 외란에 의해 드론이 착륙 지점과 멀어짐 등의 상황이 발생하면 착륙 패드의 전체 영상이 아닌 부분 영상만을 획득하게 되어 착륙 패드를 인식하지 못할 수 있는 문제점이 있다.However, the conventional drone landing using the image has a problem in that it cannot perform precise landing only by recognizing only the position of the target and landing. In addition, in the case of landing using images, if there are situations such as limiting the shooting area due to the angle of view of the image sensor as the altitude descends, or the drone moves away from the landing site due to disturbance, only a partial image of the landing pad rather than the entire image occurs. There is a problem in that the landing pad may not be recognized by being acquired.

국내 등록특허 제10-2022695호Domestic Registered Patent No. 10-2022695 국내 등록특허 제10-2079727호Domestic Registered Patent No. 10-2079727

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 영상 센서로부터 촬영된 영상을 이용하여 착륙 패드의 부분 영상을 포함한 학습 데이터를 생성 후, CNN(Convolutional Neural Network) 알고리즘을 이용하여 착륙 패드를 인식하고, 중심점을 추정하여 착륙 패드 위치를 추정한 다음, 드론의 위치 및 고도, 착륙 패드의 중심점 픽셀 값, 영상 센서의 특성 파라미터 등을 활용한 착륙 위치 추정, 칼만 필터를 활용한 추정 위치를 보정한 후 추정한 착륙 위치를 활용해서 착륙 수행을 위한 속도 명령 생성하여 정밀 착륙을 유도하도록 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 제공하는데 그 목적이 있다.The present invention is to solve the above problems, using an image captured from an image sensor to generate learning data including a partial image of the landing pad, and then using a CNN (Convolutional Neural Network) algorithm to recognize the landing pad and , after estimating the landing pad position by estimating the center point, then estimating the landing position using the drone’s position and altitude, the pixel value of the center point of the landing pad, and the characteristic parameters of the image sensor, and after correcting the estimated position using the Kalman filter The purpose of this is to provide an automatic landing algorithm of a drone that takes into account partial images that generate a speed command for landing performance using the estimated landing position to induce a precise landing.

상기와 같은 목적을 달성하기 위한 본 발명의 특징은,Features of the present invention for achieving the above object,

영상 센서로부터 영상을 수신하는 영상 정보 입력 단계와; 비행시험에서 획득한 착륙 패드의 전체 영상 및 부분 영상을 활용하여 생성된 학습 데이터로 학습을 통해 착륙 패드 인식 및 중심점을 추정하는 착륙 패드 인식 및 중심점 추정 단계와; 추정한 착륙 패드의 중심점 픽셀값을 출력하는 영상 정보 출력 단계와; 드론의 위치 및 고도, 출력된 중심점 픽셀값, 상기 영상 센서의 특성 파라미터를 활용하여 착륙 패드의 중심점으로부터의 위치를 추정하되, 칼만 필터를 이용하여 위치 추정 오차를 보정하는 착륙 위치 추정 단계; 및 추정한 착륙 위치를 이용하여 착륙 수행을 위한 착륙 유도 명령을 생성하는 착륙 유도 명령 생성 단계로 이루어지는 것을 특징으로 한다.an image information input step of receiving an image from an image sensor; Landing pad recognition and center point estimation step of estimating landing pad recognition and center point through learning with learning data generated using the entire image and partial image of the landing pad obtained in the flight test; an image information output step of outputting the estimated pixel value of the center point of the landing pad; a landing position estimation step of estimating the position from the center point of the landing pad using the position and altitude of the drone, the output center point pixel value, and the characteristic parameters of the image sensor, but correcting the position estimation error using a Kalman filter; and a landing guidance command generation step of generating a landing guidance command for landing performance by using the estimated landing position.

여기에서, 상기 착륙 패드 인식 및 중심점 추정 단계는 CNN(Convolutional Neural Network) 알고리즘을 이용하고, 착륙 패드의 부분 영상만 획득 가능한 상황에서는 부분 영상을 활용하여 생성된 학습 데이터로 학습을 통해 착륙 패드 인식 및 중심점을 추정한다.Here, the landing pad recognition and center point estimation step uses a convolutional neural network (CNN) algorithm, and in a situation where only a partial image of the landing pad can be obtained, the landing pad recognition and Estimate the center point.

여기에서 또한, 상기 착륙 위치 추정 단계는 등속도 모델 기반 칼만 필터를 이용한다.Here, the landing position estimation step uses a Kalman filter based on a constant velocity model.

여기에서 또, 상기 착륙 유도 명령 생성 단계는 드론의 자동 착륙을 수행하기 위하여 추정한 착륙 패드의 위치와 드론의 위치 오차를 활용하여 비례 제어를 통해 속도 명령을 생성하되, 북쪽과 동쪽 방향의 위치 오차를 각각 계산한 후 해당 오차를 기체 좌표계에 맞추어 X, Y 방향의 오차로 변환하고, 아래의 비례 제어를 통해 U, V 속도 명령을 생성한 후 착륙을 위한 W 하강 속도를 일정한 속도값을 사용한다.Here, in the landing guidance command generation step, a speed command is generated through proportional control by using the estimated landing pad position and the drone position error to perform automatic landing of the drone, but the position error in the north and east directions After calculating each, the error is converted to an error in the X and Y directions according to the aircraft coordinate system, and the U and V speed commands are generated through the proportional control below, and then the W descent speed for landing is used as a constant speed value. .

상기와 같이 구성되는 본 발명인 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따르면, 영상 센서로부터 촬영된 영상을 이용하여 착륙 패드의 부분 영상을 포함한 학습 데이터를 생성 후, CNN(Convolutional Neural Network) 알고리즘을 이용하여 착륙 패드를 인식하고, 중심점을 추정하여 착륙 패드 위치를 추정한 다음, 드론의 위치 및 고도, 착륙 패드의 중심점 픽셀 값, 영상 센서의 특성 파라미터 등을 활용한 착륙 위치 추정, 칼만 필터를 활용한 추정 위치를 보정한 후 추정한 착륙 위치를 활용해서 착륙 수행을 위한 속도 명령 생성하여 정밀 착륙을 유도할 수 있다.According to the automatic landing algorithm of the drone considering the partial image of the present invention configured as described above, after generating learning data including the partial image of the landing pad using the image captured from the image sensor, a CNN (Convolutional Neural Network) algorithm is used to recognize the landing pad, estimate the center point to estimate the landing pad position, After correcting the estimated position, the estimated landing position can be used to generate a speed command to perform the landing to induce a precise landing.

도 1은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 설명하기 위한 동작 흐름도이다.
도 2는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 영상 센서에서 획득한 착륙 패드의 전체 영상을 나타낸 예시 이미지이다.
도 3은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 영상 센서에서 획득한 착륙 패드의 부분 영상을 나타낸 예시 이미지이다.
도 4는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 착륙 패드 인식 및 중심점 추정이 된 모습을 설명하기 위한 사진이다.
도 5는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 착륙 패드 위치를 추정하기 위해 드론, 영상 및 지면의 상대 좌표계를 도시한 도면이다.
도 6은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 실제 착륙 패드 위치 및 추정한 착륙 패드 위치와 기체 위치로의 상대거리를 나타낸 그래프이다.
도 7은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 추정 위치를 통해 계산한 상대거리 오차에 대한 히스토그램이다.
도 8은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘이 적용된 칼만 필터의 개념을 나타낸 개념도이다.
도 9는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘이 적용된 제어기의 구성을 나타낸 블록도이다.
도 10은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 비행 시험 사진이다.
도 11은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 착륙 위치 추정 결과를 나타낸 그래프이다.
도 12는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 착륙 수행 궤적이다.
1 is an operation flowchart for explaining an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
2 is an exemplary image showing an entire image of a landing pad obtained from an image sensor by an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
3 is an exemplary image illustrating a partial image of a landing pad obtained from an image sensor by an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
4 is a photograph for explaining a state in which landing pad recognition and center point estimation are performed by an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
5 is a diagram illustrating a relative coordinate system of a drone, an image, and the ground in order to estimate a landing pad position according to an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
6 is a graph showing the actual landing pad position and the estimated landing pad position and the relative distance to the aircraft position according to the automatic landing algorithm of the drone in consideration of the partial image according to the present invention.
7 is a histogram of a relative distance error calculated through an estimated position according to an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
8 is a conceptual diagram illustrating the concept of a Kalman filter to which an automatic landing algorithm of a drone considering a partial image according to the present invention is applied.
9 is a block diagram showing the configuration of a controller to which an automatic landing algorithm of a drone in consideration of a partial image according to the present invention is applied.
10 is a flight test photograph of a flight test result using an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
11 is a graph illustrating a landing position estimation result of a flight test result using an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.
12 is a landing performance trajectory of a flight test result using an automatic landing algorithm of a drone in consideration of a partial image according to the present invention.

이하, 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, an automatic landing algorithm of a drone in consideration of a partial image according to the present invention will be described in detail with reference to the accompanying drawings.

하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 설명하기 위한 동작 흐름도이고, 도 2는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 영상 센서에서 획득한 착륙 패드의 전체 영상을 나타낸 예시 이미지이며, 도 3은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 영상 센서에서 획득한 착륙 패드의 부분 영상을 나타낸 예시 이미지이고, 도 4는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 의해 착륙 패드 인식 및 중심점 추정이 된 모습을 설명하기 위한 사진이며, 도 5는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 착륙 패드 위치를 추정하기 위해 드론, 영상 및 지면의 상대 좌표계를 도시한 도면이고, 도 6은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 실제 착륙 패드 위치 및 추정한 착륙 패드 위치와 기체 위치로의 상대거리를 나타낸 그래프이며, 도 7은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘에 따라 추정 위치를 통해 계산한 상대거리 오차에 대한 히스토그램이고, 도 8은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘이 적용된 칼만 필터의 개념을 나타낸 개념도이며, 도 9는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘이 적용된 제어기의 구성을 나타낸 블록도이다.1 is an operation flowchart for explaining the automatic landing algorithm of a drone considering partial images according to the present invention, and FIG. 2 is a landing pad obtained from an image sensor by the automatic landing algorithm of a drone considering partial images according to the present invention. It is an exemplary image showing the entire image, and FIG. 3 is an exemplary image showing a partial image of the landing pad obtained from the image sensor by the automatic landing algorithm of the drone in consideration of the partial image according to the present invention, and FIG. 4 is a partial image according to the present invention It is a photograph for explaining the landing pad recognition and center point estimation by the automatic landing algorithm of the drone considering the image, and FIG. 5 is a picture for estimating the landing pad position according to the automatic landing algorithm of the drone considering the partial image according to the present invention It is a view showing the relative coordinate system of the drone, the image, and the ground for this purpose, and FIG. 6 is the actual landing pad position and the estimated landing pad position and the relative distance to the aircraft position according to the automatic landing algorithm of the drone in consideration of the partial image according to the present invention. 7 is a histogram of the relative distance error calculated through the estimated position according to the automatic landing algorithm of the drone considering the partial image according to the present invention, and FIG. 8 is a drone considering the partial image according to the present invention. It is a conceptual diagram showing the concept of a Kalman filter to which an automatic landing algorithm is applied, and FIG. 9 is a block diagram showing the configuration of a controller to which an automatic landing algorithm of a drone in consideration of a partial image according to the present invention is applied.

도 1 내지 도 9를 참조하면, 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘은 영상 정보 입력 단계(S10)와, 착륙 패드 인식 및 중심점 추정 단계(S20)와, 영상 정보 출력 단계(S30)와, 착륙 위치 추정 단계(S40) 및 착륙 유도 명령 생성 단계(S50)로 이루어진다.1 to 9 , the automatic landing algorithm of a drone considering a partial image according to the present invention includes an image information input step (S10), a landing pad recognition and center point estimation step (S20), and an image information output step (S30). ), and a landing position estimation step (S40) and a landing guidance command generation step (S50).

《영상 정보 입력 단계-S10》《Video information input step-S10》

먼저, 드론의 영상 센서(카메라, CMOS 이미지 센서 등)으로부터 영상을 수신한다.First, an image is received from an image sensor (camera, CMOS image sensor, etc.) of the drone.

《착륙 패드 인식 및 중심점 추정 단계-S20》《Landing pad recognition and center point estimation step-S20》

비행시험에서 획득한 착륙 패드 영상을 활용하여 생성된 학습 데이터로 학습을 통해 착륙 패드 인식 및 중심점 추정을 수행한다.Landing pad recognition and center point estimation are performed through learning with learning data generated using the landing pad image obtained from the flight test.

착륙 패드 인식 및 중심점 추정을 위하여 CNN(Convolutional Neural Network) 알고리즘 중 YOLOv2를 이용하는 데, 도 2 및 도 3에 도시된 바와 같이 비행시험에서 획득한 착륙 패드의 전체 영상 및 부분 영상을 활용하여 학습 데이터를 생성하였으며, 학습을 통해 도 4와 같이 착륙 패드 인식 및 중심점 추정을 수행한다.YOLOv2 is used among convolutional neural network (CNN) algorithms for landing pad recognition and center point estimation. , and through learning, landing pad recognition and center point estimation are performed as shown in FIG. 4 .

도 5와 같이 드론, 영상 및 지면의 상대좌표계를 설정하였으며, 상대좌표계의 중심은 기체 위치로 실시간 변경된다. 영상좌표계의 중심점을 지면좌표계의 위치로 변환하기 위하여 회전 변환 행렬을 활용하였으며, 실제 착륙 패드 위치 및 추정한 착륙 패드 위치와 기체 위치로의 상대 거리는 도 6과 같다. 도 6을 통해 영상에서 착륙 패드의 부분 영상만 획득될 경우(도면상 노란색 부분)에는 오차가 큰 것을 확인할 수 있다.As shown in FIG. 5, the relative coordinate system of the drone, the image, and the ground is set, and the center of the relative coordinate system is changed to the position of the aircraft in real time. A rotation transformation matrix was used to transform the center point of the image coordinate system into the position of the ground coordinate system, and the actual landing pad position and the estimated relative distance between the landing pad position and the aircraft position are shown in FIG. 6 , when only a partial image of the landing pad is acquired from the image (yellow part in the drawing), it can be seen that the error is large.

《영상 정보 출력 단계-S30》《Video information output step-S30》

그리고, 추정한 착륙 패드의 중심점 픽셀값을 출력한다.Then, the estimated pixel value of the center point of the landing pad is output.

《착륙 위치 추정 단계-S40》《Landing position estimation step-S40》

영상에서 착륙 패드의 일부만 보일 경우 위치 추정 오차를 보정하기 위하여 칼만 필터를 이용하는 데, 상태 변수, 측정값, 시스템 모델 및 공분산 행렬은 수학식 1 내지 4와 같이 설정하였다. 수학식 1과 수학식 2에서

Figure pat00001
,
Figure pat00002
는 각 방향의 상대거리,
Figure pat00003
,
Figure pat00004
는 각 방향의 상대속도를 의미한다.When only a part of the landing pad is visible in the image, a Kalman filter is used to correct the position estimation error, and the state variable, measured value, system model, and covariance matrix are set as in Equations 1 to 4. In Equation 1 and Equation 2
Figure pat00001
,
Figure pat00002
is the relative distance in each direction,
Figure pat00003
,
Figure pat00004
is the relative speed in each direction.

Figure pat00005
Figure pat00005

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

상대속도의 경우 착륙 패드는 정지물체이므로 드론 속도를 활용하여 계산하였으며, 칼만필터는 등속도 모델을 활용하였다. 착륙 패드가 인식되지 않은 부분의 경우에는 추정값을 예측값으로 설정하였으며. 착륙 패드의 부분만 인식된 경우에는 상대속도를 더 반영하도록 설정하여 위치 추정 성능을 향상시켰다. 도 7은 추정 위치를 통해 계산한 상대거리 오차에 대한 히스토그램이며, 아래의 표 1은 RMSE(Root Mean Square Error)이며, 도 8은 칼만 필터의 개념이다.In the case of relative speed, the landing pad was a stationary object, so it was calculated using the drone speed, and the Kalman filter used a constant velocity model. In the case of the part where the landing pad was not recognized, the estimated value was set as the predicted value. When only the part of the landing pad was recognized, the position estimation performance was improved by setting it to reflect the relative speed more. 7 is a histogram of a relative distance error calculated through an estimated position, Table 1 below is RMSE (Root Mean Square Error), and FIG. 8 is a concept of a Kalman filter.

Figure pat00009
Figure pat00009

《착륙 유도 명령 생성 단계-S50》《Landing guidance command generation step-S50》

위치 추정 오차의 보정이 완료되면, 추정한 착륙 위치를 이용하여 착륙 수행을 위한 착륙 유도 명령을 생성한다.When the correction of the position estimation error is completed, a landing guidance command for landing is generated using the estimated landing position.

이때, 드론의 자동착륙을 수행하기 위하여 추정한 착륙 패드의 위치와 무인 항공기의 위치 오차를 활용하여 속도 명령을 생성한다. 북쪽과 동쪽 방향의 위치 오차를 각각 계산한 후 해당 오차를 드론 좌표계에 맞추어 X, Y 방향의 오차로 변환하였으며, 수학식 5와 같이 비례 제어를 통해 U, V 속도 명령을 생성한다. 착륙을 위한 하강 속도는 수학식 6과 같이 일정한 속도값을 사용한다. 착륙 유도를 위해 구성한 제어기의 경우 도 7과 같이 나타낼 수 있다.At this time, a speed command is generated by using the estimated position of the landing pad and the position error of the unmanned aerial vehicle to perform automatic landing of the drone. After calculating the position errors in the north and east directions, the corresponding errors are converted into errors in the X and Y directions according to the drone coordinate system, and U and V speed commands are generated through proportional control as shown in Equation 5. The descent speed for landing uses a constant speed value as shown in Equation (6). A controller configured for landing guidance may be represented as shown in FIG. 7 .

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

《비행 시험》《Flight Test》

도 10은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 비행 시험 사진이고, 도 11은 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 착륙 위치 추정 결과를 나타낸 그래프이며, 도 12는 본 발명에 따른 부분 영상을 고려한 드론의 자동 착륙 알고리즘을 이용한 비행 시험 결과의 착륙 수행 궤적이다.10 is a flight test photograph of a flight test result using the automatic landing algorithm of a drone considering a partial image according to the present invention, and FIG. 11 is a landing of a flight test result using the automatic landing algorithm of a drone taking a partial image according to the present invention It is a graph showing the position estimation result, and FIG. 12 is the landing performance trajectory of the flight test result using the automatic landing algorithm of the drone considering the partial image according to the present invention.

본 발명에서는 구현한 알고리즘을 검증하기 위하여 비행시험을 수행하였으며, 시험에 사용한 드론은 짐벌을 사용하여 드론의 자세와 상관없이 영상을 안정화하였다. 비행 제어 컴퓨터(Flight Control Computer, FCC)로는 오픈소스 기반의 Pixhawk를 사용하였다. MC(Mission Computer)로는 ROS가 설치된 Jetson Xavier AGX를 이용하여, 제어 명령 생성 및 입력이 가능하도록 구성하였다. FCC와 MC는 Mavlink 프로토콜을 통해 모듈 간 통신을 수행하며, 비행 모드 중 오프보드 모드에서 속도 명령을 입력하여 착륙을 유도한다. 오프보드 모드 진입 시 본 발명에 따른 알고리즘이 적용되어 운용된다.In the present invention, a flight test was performed to verify the implemented algorithm, and the drone used for the test used a gimbal to stabilize the image regardless of the drone's posture. As a Flight Control Computer (FCC), an open source-based Pixhawk was used. As MC (Mission Computer), ROS installed Jetson Xavier AGX was used to create and input control commands. FCC and MC communicate between modules through the Mavlink protocol, and during flight mode, input a speed command in offboard mode to induce landing. When entering the offboard mode, the algorithm according to the present invention is applied and operated.

위와 같이 환경을 구성한 후 도 10과 같이 비행시험을 수행하였다. 착륙 패드의 중심에서 조금 벗어난 위치에서 자동 착륙 알고리즘을 수행하였으며, 착륙 패드 중심 방향으로 착륙을 유도 및 수행하는 것을 확인할 수 있었다.After configuring the environment as above, a flight test was performed as shown in FIG. 10 . The automatic landing algorithm was performed at a position slightly off the center of the landing pad, and it was confirmed that landing was induced and performed in the direction of the center of the landing pad.

도 11은 본 발명에 따른 자동 착륙 알고리즘으로 추정한 위치와 실제 위치를 기반으로 드론과의 상대 거리를 나타낸 결과이며, 도 12는 드론의 자동 착륙 궤적을 나타낸다. 도 11을 통해 북쪽 방향으로 최대 0.6m, 동쪽 방향으로 최대 0.5m의 오차를 가진 채 정상적으로 착륙 패드 위치를 추정하는 것을 확인할 수 있다. 또한 고도의 경우 자동 착륙 시작 위치에서 일정한 속도 명령에 따라 이상 없이 하강하며 착륙을 수행하는 것을 확인할 수 있다. 도 12를 통해 드론의 착륙 위치가 착륙 패드 중심 위치와 오차가 발생하기는 하였으나, 안정적으로 착륙을 수행한 것을 확인할 수 있다.11 is a result showing the relative distance to the drone based on the actual position and the position estimated by the automatic landing algorithm according to the present invention, and FIG. 12 shows the automatic landing trajectory of the drone. 11 , it can be seen that the landing pad position is normally estimated with an error of up to 0.6 m in the north direction and up to 0.5 m in the east direction. Also, in the case of altitude, it can be confirmed that the landing is performed while descending without any abnormality according to a constant speed command from the automatic landing starting position. Although an error occurred in the landing position of the drone with the center position of the landing pad through FIG. 12 , it can be confirmed that the landing was performed stably.

본 발명은 다양하게 변형될 수 있고 여러 가지 형태를 취할 수 있으며 상기 발명의 상세한 설명에서는 그에 따른 특별한 실시 예에 대해서만 기술하였다. 하지만 본 발명은 상세한 설명에서 언급되는 특별한 형태로 한정되는 것이 아닌 것으로 이해되어야 하며, 오히려 첨부된 청구범위에 의해 정의되는 본 발명의 정신과 범위 내에 있는 모든 변형물과 균등물 및 대체물을 포함하는 것으로 이해되어야 한다.The present invention may be variously modified and may take various forms, and in the detailed description of the invention, only specific embodiments thereof have been described. However, it is to be understood that the present invention is not limited to the particular form recited in the detailed description, but rather, it is to be understood to cover all modifications and equivalents and substitutions falling within the spirit and scope of the present invention as defined by the appended claims. should be

Claims (4)

영상 센서로부터 영상을 수신하는 영상 정보 입력 단계와;
비행시험에서 획득한 착륙 패드의 전체 영상 및 부분 영상을 활용하여 생성된 학습 데이터로 학습을 통해 착륙 패드 인식 및 중심점을 추정하는 착륙 패드 인식 및 중심점 추정 단계와;
추정한 착륙 패드의 중심점 픽셀값을 출력하는 영상 정보 출력 단계와;
드론의 위치 및 고도, 출력된 중심점 픽셀값, 상기 영상 센서의 특성 파라미터를 활용하여 착륙 패드의 중심점으로부터의 위치를 추정하되, 칼만 필터를 이용하여 위치 추정 오차를 보정하는 착륙 위치 추정 단계; 및
추정한 착륙 위치를 이용하여 착륙 수행을 위한 착륙 유도 명령을 생성하는 착륙 유도 명령 생성 단계로 이루어지는 것을 특징으로 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘.
an image information input step of receiving an image from an image sensor;
Landing pad recognition and center point estimation step of estimating landing pad recognition and center point through learning with learning data generated by using the entire image and partial image of the landing pad obtained in the flight test;
an image information output step of outputting the estimated pixel value of the center point of the landing pad;
A landing position estimation step of estimating the position from the center point of the landing pad using the position and altitude of the drone, the output center point pixel value, and the characteristic parameters of the image sensor, but correcting the position estimation error using a Kalman filter; and
Automatic landing algorithm of a drone considering partial images, characterized in that it comprises a landing guidance command generation step of generating a landing guidance command for landing performance using the estimated landing position.
제 1 항에 있어서,
상기 착륙 패드 인식 및 중심점 추정 단계는,
CNN(Convolutional Neural Network) 알고리즘을 이용하고, 착륙 패드의 부분 영상만 획득 가능한 상황을 고려해 부분 영상을 포함하여 생성된 학습 데이터로 학습을 통해 착륙 패드 인식 및 중심점을 추정하는 것을 특징으로 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘.
The method of claim 1,
The landing pad recognition and center point estimation step is,
Using a CNN (Convolutional Neural Network) algorithm, considering a situation where only partial images of the landing pad can be acquired, a partial image characterized by estimating the landing pad recognition and center point through learning with the generated learning data including the partial image The automatic landing algorithm of the considered drone.
제 1 항에 있어서,
상기 착륙 위치 추정 단계는,
등속도 모델 기반 칼만 필터를 이용하는 것을 특징으로 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘.
The method of claim 1,
The landing position estimation step includes:
An automatic landing algorithm of a drone considering partial images, characterized by using a constant velocity model-based Kalman filter.
제 1 항에 있어서,
상기 착륙 유도 명령 생성 단계는,
드론의 자동 착륙을 수행하기 위하여 추정한 착륙 패드의 위치와 드론의 위치 오차를 활용하여 비례 제어를 통해 속도 명령을 생성하되, 북쪽과 동쪽 방향의 위치 오차를 각각 계산한 후 해당 오차를 기체 좌표계에 맞추어 X, Y 방향의 오차로 변환하고, 아래의 비례 제어를 통해 U, V 속도 명령을 생성한 후 착륙을 위한 W 하강 속도를 일정한 속도값을 사용하는 것을 특징으로 하는 부분 영상을 고려한 드론의 자동 착륙 알고리즘.
The method of claim 1,
In the step of generating the landing guidance command,
In order to automatically land the drone, the speed command is generated through proportional control using the estimated landing pad position and the drone position error. Automatic drone considering partial images, characterized by using a constant speed value for the W descent speed for landing, after converting it to an error in the X and Y directions, generating the U and V speed commands through the proportional control below. landing algorithm.
KR1020200155549A 2020-11-19 2020-11-19 Automatic landing algorithm of drone considering partial images KR20220068606A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200155549A KR20220068606A (en) 2020-11-19 2020-11-19 Automatic landing algorithm of drone considering partial images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200155549A KR20220068606A (en) 2020-11-19 2020-11-19 Automatic landing algorithm of drone considering partial images

Publications (1)

Publication Number Publication Date
KR20220068606A true KR20220068606A (en) 2022-05-26

Family

ID=81809873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200155549A KR20220068606A (en) 2020-11-19 2020-11-19 Automatic landing algorithm of drone considering partial images

Country Status (1)

Country Link
KR (1) KR20220068606A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102495890B1 (en) 2022-10-24 2023-02-06 주식회사 에이아이컨트롤 Drone and drone control methods that enable precise landing using ir markers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102022695B1 (en) 2017-12-26 2019-09-19 주식회사 솔탑 Method and apparatus for controlling drone landing
KR102079727B1 (en) 2018-06-14 2020-02-20 (재)경북차량용임베디드기술연구원 Automatic drones landing gear and method using vision recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102022695B1 (en) 2017-12-26 2019-09-19 주식회사 솔탑 Method and apparatus for controlling drone landing
KR102079727B1 (en) 2018-06-14 2020-02-20 (재)경북차량용임베디드기술연구원 Automatic drones landing gear and method using vision recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102495890B1 (en) 2022-10-24 2023-02-06 주식회사 에이아이컨트롤 Drone and drone control methods that enable precise landing using ir markers

Similar Documents

Publication Publication Date Title
US20230236611A1 (en) Unmanned Aerial Vehicle Sensor Activation and Correlation System
US20200378760A1 (en) Hover control
WO2020107372A1 (en) Control method and apparatus for photographing device, and device and storage medium
US20160093225A1 (en) Landing system for an aircraft
US20160086497A1 (en) Landing site tracker
KR101740312B1 (en) Induction control method using camera control information of unmanned air vehicle
KR101959366B1 (en) Mutual recognition method between UAV and wireless device
CN107783555B (en) Target positioning method, device and system based on unmanned aerial vehicle
WO2018059398A1 (en) Method, apparatus, and system for controlling multi-rotor aircraft
CN106094876A (en) A kind of unmanned plane target locking system and method thereof
KR20170139326A (en) Autonomous flight system and method of unmanned aerial vehicle
KR102022695B1 (en) Method and apparatus for controlling drone landing
KR102040289B1 (en) Apparatus and method for correcting position of drone
KR20220068606A (en) Automatic landing algorithm of drone considering partial images
JP6791387B2 (en) Aircraft, air vehicle control device, air vehicle control method and air vehicle control program
Mebarki et al. Autonomous landing of rotary-wing aerial vehicles by image-based visual servoing in GPS-denied environments
Miller et al. UAV navigation based on videosequences captured by the onboard video camera
Kuroswiski et al. Autonomous long-range navigation in GNSS-denied environment with low-cost UAV platform
KR102503308B1 (en) Apparatus for following lane on road by unmanned aerial vehicle and method the same
KR102235589B1 (en) UAV landing system
US20230073120A1 (en) Method for Controlling an Unmanned Aerial Vehicle for an Inspection Flight to Inspect an Object and Inspection Unmanned Aerial Vehicle
KR101807771B1 (en) Apparatus for acquiring image using formation flying unmanned aerial vehicle
Jin et al. A vision tracking system via color detection
WO2021035746A1 (en) Image processing method and device, and movable platform
CN112327913A (en) Unmanned aerial vehicle flight control method and system for power inspection

Legal Events

Date Code Title Description
E601 Decision to refuse application