KR20230105412A - Method for precision landing of drone and device thereof - Google Patents

Method for precision landing of drone and device thereof Download PDF

Info

Publication number
KR20230105412A
KR20230105412A KR1020220000759A KR20220000759A KR20230105412A KR 20230105412 A KR20230105412 A KR 20230105412A KR 1020220000759 A KR1020220000759 A KR 1020220000759A KR 20220000759 A KR20220000759 A KR 20220000759A KR 20230105412 A KR20230105412 A KR 20230105412A
Authority
KR
South Korea
Prior art keywords
landing
drone
area
image
take
Prior art date
Application number
KR1020220000759A
Other languages
Korean (ko)
Inventor
최수길
차지훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220000759A priority Critical patent/KR20230105412A/en
Publication of KR20230105412A publication Critical patent/KR20230105412A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Abstract

본 발명에 의한 드론 정밀 착륙 방법은 영상 촬영 모듈로부터 전달받은 질의 이미지 상에 탐색 영역을 설정하는 단계, 질의 이미지 촬영 시의 헤딩 방향으로 드론의 헤딩 방향을 정렬하는 단계, 영상 촬영 모듈로부터 대상 이미지를 전달받는 단계, 상기 대상 이미지에서 착륙 위치를 탐지하고, 착륙 영역을 설정하는 단계, 상기 착륙 영역을 추적 대상 영역으로 설정하는 단계, 및 상기 추적 대상 영역이 촬영 영상의 중심에 위치하도록 수평 위치를 조정하며 하강하는 단계를 포함하고, 상기 탐색 영역을 설정하는 단계는, 템플릿 제안 신경망(Template Proposal Network)을 활용하여 상기 질의 이미지 상에 탐색 영역을 자동으로 생성하는 것을 특징으로 한다.A drone precision landing method according to the present invention includes the steps of setting a search area on a query image transmitted from a video capture module, aligning the heading direction of a drone with the heading direction when capturing the query image, and selecting a target image from the image capture module. Receiving the message, detecting the landing position in the target image and setting a landing area, setting the landing area as a tracking target area, and adjusting the horizontal position of the tracking target area to be located in the center of the captured image. The step of setting the search area may include automatically generating a search area on the query image by utilizing a template proposal network.

Description

드론의 정밀 착륙 방법 및 장치{METHOD FOR PRECISION LANDING OF DRONE AND DEVICE THEREOF}Drone precision landing method and device {METHOD FOR PRECISION LANDING OF DRONE AND DEVICE THEREOF}

본 발명은 드론 정밀 착륙 방법 및 장치에 관한 것으로, 보다 상세하게는, 드론에 장착된 카메라로 촬영한 영상을 이용하여 착륙 표지가 없거나 동일한 착륙 표지가 복수로 존재할 때에도 드론이 이륙한 위치로 정밀하게 착륙할 수 있는 드론 정밀 착륙 방법 및 장치에 관한 것이다.The present invention relates to a method and device for precise landing of a drone, and more particularly, by using an image captured by a camera mounted on a drone, even when there is no landing mark or a plurality of identical landing marks exist, the drone precisely takes off from the position. It relates to a method and device for precise landing of a drone capable of landing.

드론(Drone)은 사람이 타지 않고 무선전파의 유도에 의해 비행하는 무인 비행체이다. 최근에는 미국 항공 규제 당국은 최초로 완전 자동화된 상업용 드론 비행을 승인하는 등 드론의 자동 운용 기술의 개발이 활발히 진행 중이다. 드론 운용을 자동화하기 위한 기술 중 하나가 자율 착륙 기술이다. 특히, 드론 운용을 자동화 하기 위해서는 자율 착륙을 위한 착륙 위치를 자동으로 탐지할 수 있어야 한다.A drone is an unmanned aerial vehicle that flies by induction of radio waves without a human being on board. In recent years, the US aviation regulator has approved the first fully automated commercial drone flight, and the development of autonomous drone operation technology is actively underway. One of the technologies for automating drone operation is autonomous landing technology. In particular, in order to automate drone operation, it is necessary to automatically detect the landing location for autonomous landing.

현재 대부분의 드론은 GNSS(Global Navigation Satellite System) 정보에 기반하여 비행을 수행하며, 이륙 위치의 GNSS 정보를 이용하여 이륙한 위치에 다시 착륙할 수 있다. 하지만, GNSS는 환경에 따라서 수십 미터까지 오차가 발생할 수 있어, 드론의 이륙 위치로 정밀한 착륙을 보장할 수 없는 문제가 있다. 다만, RTK-GNSS(Real Time Kinematic-Global Navigation Satellite System)는 드론 주변의 환경이 양호한 경우에는 수평/수직 오차가 수 센티미터(cm) 이내이므로 RTK-GNSS 정보를 이용하면, 드론은 이률 위치로 정밀하게 착륙할 수 있다. 하지만, 건물과 구조물이 많은 도심지나 산악지형 같이 위성 수신 환경이 좋지 않은 지역에서는 정밀도가 낮아지기 문제가 발생할 수 있다. 즉, RTK-GNSS 정보를 이용하여 정밀 착륙을 하는 기술은 주변에 환경에 상관 없이 안정적인 정밀 착륙을 보장하지 못하는 문제가 있다. 그리고, RTK-GNSS를 사용하기 위해서는 보정 신호 수신용 실시간 통신이 확보되어야 하는 단점도 있다.Currently, most drones fly based on GNSS (Global Navigation Satellite System) information, and can land again at the location from which they took off using GNSS information of the take-off location. However, GNSS has a problem in that an error of up to several tens of meters may occur depending on the environment, and thus precise landing cannot be guaranteed with the take-off position of the drone. However, RTK-GNSS (Real Time Kinematic-Global Navigation Satellite System) has a horizontal/vertical error of less than several centimeters (cm) when the environment around the drone is good. can land smoothly. However, in an area where the satellite reception environment is not good, such as an urban area with many buildings and structures or a mountainous terrain, a problem in that precision may occur. That is, the technology for precise landing using RTK-GNSS information has a problem in not guaranteeing a stable precise landing regardless of the surrounding environment. In addition, there is a disadvantage in that real-time communication for receiving a correction signal must be secured in order to use RTK-GNSS.

이에, GNSS에 의존하지 않으면서 자율 착륙을 위해서 드론에서 지면 방향을 촬영한 영상을 이용하는 기술로서, 착륙 표지를 지상에 두고 드론에서 아래쪽 영역을 촬영한 영상에서 착륙 표지를 탐지하여 탐지된 위치로 드론을 착륙하게 하는 방법이 이용되고 있다.Therefore, it is a technology that uses the image of the ground direction taken by the drone for autonomous landing without relying on GNSS. A method for landing is being used.

하지만, 기존의 방식은 좁은 영역에 동일한 착륙 표지가 여러 개 있게 되면 아래쪽을 촬영한 영상에서 복수의 착륙 표지가 탐지되게 되므로 드론이 이륙한 착륙 표지를 식별할 수 없고, 착륙 표지 탐지 결과와 이륙 시 GNSS 정보를 융합하더라도 착륙 표지 간의 거리가 GNSS 오차 범위 이내라면 착륙 표지를 구분할 수 없는 문제가 있다. 또한, 착륙 표지가 없는 장소에서 이륙 시 저장한 GNSS 정보를 이용하여 자율 착륙을 할 수 있지만 이륙 위치 주변이 평탄하지 않고 바위나 나무 등이 있다면 드론이 착륙 중에 손상될 위험이 있다.However, in the conventional method, if there are several identical landing marks in a small area, multiple landing marks are detected in the video taken from the bottom, so the landing mark from which the drone took off cannot be identified. Even if the GNSS information is fused, there is a problem in that the landing marks cannot be distinguished if the distance between the landing marks is within the GNSS error range. In addition, autonomous landing can be performed using the GNSS information stored during takeoff in a place without a landing sign.

상기와 같은 문제를 해결하기 위한 본 발명의 목적은 좁은 영역에 동일한 착륙 표지가 복수의 개 존재하더라도, 각 드론이 이륙한 착륙 표지로 정밀하게 착륙할 수 있는 드론의 정밀 착륙 방법 및 장치를 제공하는데 있다.An object of the present invention for solving the above problems is to provide a precision landing method and device for a drone that can accurately land on a landing mark from which each drone took off, even if a plurality of identical landing marks exist in a narrow area. there is.

상기와 같은 문제를 해결하기 위한 본 발명의 다른 목적은 착륙 표지가 없는 장소에서도 드론이 이륙한 위치로 정밀하게 착륙할 수 있도록 하는 드론의 정밀 착륙 방법 및 장치를 제공하는데 있다.Another object of the present invention to solve the above problems is to provide a precision landing method and device for a drone that allows the drone to accurately land at a location where the drone took off even in a place without a landing sign.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 드론 정밀 착륙 방법은 영상 촬영 모듈로부터 전달받은 질의 이미지 상에 탐색 영역을 설정하는 단계, 질의 이미지 촬영 시의 헤딩 방향으로 드론의 헤딩 방향을 정렬하는 단계, 영상 촬영 모듈로부터 대상 이미지를 전달받는 단계, 상기 대상 이미지에서 착륙 위치를 탐지하고, 착륙 영역을 설정하는 단계, 상기 착륙 영역을 추적 대상 영역으로 설정하는 단계, (a) 상기 추적 대상 영역이 촬영 영상의 중심에 위치하도록 수평 위치를 조정하며 하강하는 단계, (b) 소정의 시간 또는 소정의 고도 변화를 기준으로 하강하며 촬영한 영상을 샘플링 하는 단계, 및 상기 샘플링 한 영상에 추적 대상 영역을 축소하여 재설정하며, 상기 (a)의 단계 및 상기 (b)의 단계를 반복적으로 수행하는 단계를 포함하고, 상기 탐색 영역을 설정하는 단계는, 템플릿 제안 신경망(Template Proposal Network)을 활용하여 상기 질의 이미지 상에 탐색 영역을 자동으로 생성하는 것을 특징으로 한다.In order to achieve the above object, a method for precise landing of a drone according to an embodiment of the present invention includes setting a search area on a query image transmitted from an image capturing module, aligning the heading direction of a drone with the heading direction when capturing the query image. step of receiving a target image from an image capture module, detecting a landing position in the target image and setting a landing area, setting the landing area as a tracking target area, (a) the tracking target area descending while adjusting the horizontal position to be located at the center of the photographed image, (b) sampling the image captured while descending based on a predetermined time or a predetermined altitude change, and tracking target area in the sampled image It includes reducing and resetting and repeatedly performing steps (a) and (b), and the setting of the search area includes the step of using a template proposal neural network (Template Proposal Network). It is characterized in that a search area is automatically generated on the query image.

본 발명에 의하면, 드론의 정밀 착륙 방법 및 장치는 좁은 영역에 동일한 착륙 표지가 복수의 개 존재하더라도, 각 드론이 이륙한 착륙 표지로 정밀하게 착륙하게 할 수 있다. According to the present invention, the precise landing method and apparatus of a drone can precisely land on a landing marker from which each drone took off, even if a plurality of identical landing markers exist in a small area.

또한, 드론의 정밀 착륙 방법 및 장치는 착륙 표지가 없는 장소에서도 드론이 이륙한 위치로 정밀하게 착륙하게 할 수 있다.In addition, the precision landing method and device of the drone can precisely land the drone at the location where the drone took off even in a place without a landing mark.

도 1은 본 발명의 일 실시예를 따른 드론 정밀 착륙 과정을 보여주는 개념도이다.
도 2는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 이륙시 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 착륙시 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 착륙 위치 탐지시 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 템플릿 탐지 결과를 예시적으로 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 따른 착륙 위치 탐지용 인공 신경망의 개념도이다.
1 is a conceptual diagram showing a drone precision landing process according to an embodiment of the present invention.
2 is a block diagram of a drone precision landing device according to an embodiment of the present invention.
3 is a flowchart of a drone precision landing device during takeoff according to an embodiment of the present invention.
4 is a flowchart illustrating a landing of a drone precision landing device according to an embodiment of the present invention.
5 is a flowchart illustrating a landing position detection of a drone precision landing device according to an embodiment of the present invention.
6 is a diagram showing template detection results according to an embodiment of the present invention by way of example.
7 is a conceptual diagram of an artificial neural network for detecting a landing position according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can make various changes and have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

본 출원의 실시예들에서, "A 및 B 중에서 적어도 하나"는 "A 또는 B 중에서 적어도 하나" 또는 "A 및 B 중 하나 이상의 조합들 중에서 적어도 하나"를 의미할 수 있다. 또한, 본 출원의 실시예들에서, "A 및 B 중에서 하나 이상"은 "A 또는 B 중에서 하나 이상" 또는 "A 및 B 중 하나 이상의 조합들 중에서 하나 이상"을 의미할 수 있다.In embodiments of the present application, “at least one of A and B” may mean “at least one of A or B” or “at least one of combinations of one or more of A and B”. Also, in the embodiments of the present application, “one or more of A and B” may mean “one or more of A or B” or “one or more of combinations of one or more of A and B”.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. In order to facilitate overall understanding in the description of the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

GNSS에 의존하지 않으면서 드론의 자율 착륙을 유도하는 기술은 드론에서 지면 방향을 촬영한 영상을 이용하는 기술이 주로 사용되고 있다. 드론에서 지면을 촬영한 영상을 이용하여 드론의 자율 착륙을 유도하는 기술은 크게 2가지 기술로 분류할 수 있다. 첫 번째는 드론에서 촬영한 지면 영상을 분석하여 착륙하기에 안전한 영역을 자동으로 파악하고 해당 영역에 착륙하도록 드론을 제어하는 기술이다. 예를 들어, 인공지능 기술을 이용하여 지면이 평탄하면서 주변에 장애물이 없는 영역을 식별하여, 드론의 착륙을 유도할 수 있다. 다만, 이와 같은 방법은 착륙 유도 장치를 미리 설치할 필요가 없기 때문에 활용이 쉬운 이점이 있지만 착륙 가능 조건을 만족하는 영역을 찾지 못하는 경우에는 착륙을 할 수 없는 한계가 있다. 또한, 드론이 이륙한 장소로 정확히 착륙하는 것이 아니고 GNSS 정보를 이용하여 이륙한 장소 주변 상공으로 복귀 후 안전하다고 판단되는 영역으로 착륙하기 때문에, 드론이 안전하지 못한 장소에 착륙할 가능성이 있으며, 특히, 복수의 드론이 동시에 동일한 영역으로 착륙할 수 있는 문제가 있다. 실종자 수색에 드론이 이용되는 경우를 예를 들면, 실종자 수색을 위해 여러 대의 드론이 동시에 비행하고 비슷한 시점에 착륙을 하게 될 수 있다. 이 때, 여러대의 드론이 동일한 영역을 착륙 위치로 판단하고 착륙을 시도함으로써 충돌하는 상황이 발생할 수 있다. 따라서, 지면 촬영 영상을 분석하여 착륙에 안전한 영역을 파악하고 착륙을 하는 것은 드론이 긴급히 착륙을 해야 하는 비상 상황에는 적합하지만 일반적인 드론 운용 상황에서는 적용하기에는 무리가 있다.Technology for inducing autonomous landing of drones without relying on GNSS is mainly used for technology that uses images taken from drones in the direction of the ground. Technologies for inducing autonomous landing of drones using images taken from drones on the ground can be largely classified into two technologies. The first is a technology that analyzes ground images taken by drones to automatically determine a safe area for landing and controls the drone to land in that area. For example, by using artificial intelligence technology, it is possible to induce a drone to land by identifying an area where the ground is flat and there are no obstacles around. However, this method has the advantage of being easy to use because there is no need to install a landing guidance device in advance, but there is a limitation that landing cannot be performed if an area that satisfies the landing conditions is not found. In addition, since the drone does not exactly land at the place where it took off, but returns to the air around the place where it took off using GNSS information and lands in an area that is considered safe, there is a possibility that the drone lands in an unsafe place. , there is a problem that a plurality of drones can land in the same area at the same time. For example, when a drone is used to search for a missing person, several drones may simultaneously fly and land at the same time to search for a missing person. At this time, a situation in which several drones collide may occur by determining the same area as a landing location and attempting to land. Therefore, it is suitable for an emergency situation where a drone needs to land urgently, but it is unreasonable to apply it in a general drone operation situation.

드론의 자율 착륙을 위해서 영상을 이용하는 두 번째 방법은 착륙 표지를 지상에 두고 드론에서 아래쪽 영역을 촬영한 영상에서 착륙 표지를 탐지하여 탐지된 위치로 드론을 착륙하게 하는 것이다. 하지만, 좁은 영역에 동일한 착륙 표지가 여러 개 있게 되면 아래쪽을 촬영한 영상에서 복수의 착륙 표지가 탐지되게 되므로 드론이 이륙한 특정 위치를 식별할 수 없게 되는 문제가 있다. 복수의 드론이 비슷한 시점에 착륙을 시도하게 되면 동일한 착륙 표지를 향해 비행하면서 충돌의 위험이 있다. 또한, 착륙 표지 기반 자율 착륙을 하기 위해서는 사전에 표지가 설치된 지역에서만 드론을 운용하거나 드론이 인식할 수 있는 착륙 표지를 드론 운용자가 소지하고 다녀야 하는 단점이 있다. 특히, 착륙 표지는 드론이 비행 고도에서 착륙 표지를 식별하기 위해서는 표지가 커야 하며, 야외에서 바람 등에 영향을 받지 않기 위해서는 어느 정도 무게가 있어야 하므로 휴대가 용이하지 않아 드론 운용자가 소지하고 다니기엔 어려움이 있다.The second method of using images for autonomous landing of a drone is to place a landing marker on the ground, detect a landing marker from an image of a lower area taken by a drone, and land the drone at the detected location. However, if there are several identical landing marks in a small area, a plurality of landing marks are detected in an image taken from the bottom, so there is a problem in that a specific location from which the drone took off cannot be identified. If multiple drones attempt to land at the same time, there is a risk of collision while flying toward the same landing marker. In addition, in order to autonomously land based on landing markers, there is a disadvantage in that drones must be operated only in areas where markers are installed in advance or drone operators must carry landing markers recognizable by drones. In particular, the landing sign must be large to identify the landing sign at the flight altitude of the drone, and must have some weight to be unaffected by wind outdoors, so it is not easy to carry, making it difficult for drone operators to carry around. there is.

좁은 영역에 복수의 착륙 표지가 있어야 하는 경우에 구별이 가능한 착륙 표지를 사용할 수 있다. 하지만, 드론의 비행 고도에서 촬영한 영상에서 착륙 표지를 구분할 수 있기 위해서는 표지가 커지거나 촬영을 위해서 사용하는 카메라 해상도가 높아져야 한다. 특히, 햇빛이 강하게 비치는 야외에서 구분을 위해서 복잡도가 증가한 표지를 촬영하면 패턴의 세부적인 내용이 촬영 영상에서 유지되지 않는 경향이 있기 때문에 표지가 커지거나 고해상도의 카메라를 사용해야만 한다. 이에 더하여, 고해상도의 카메라는 FoV(촬영 범위, Field of View)가 좁기 때문에 GNSS 오차가 크면 드론에서 아래쪽을 촬영한 영상에 착륙 표지가 포함되지 않을 가능성도 증가한다. 그리고, 드론마다 사용하는 착륙 표지가 변경될 때마다 새로운 표지 정보를 착륙 표지 탐지 소프트웨어에 반영해야 하는 번거로움도 있다.Distinctive landing marks may be used where multiple landing marks are required in a small area. However, in order to be able to distinguish the landing sign from the image taken at the flight altitude of the drone, the sign must be larger or the resolution of the camera used for filming must be increased. In particular, if a cover with increased complexity is photographed for identification outdoors under strong sunlight, details of the pattern tend not to be maintained in the photographed image, so the cover must be enlarged or a high-resolution camera must be used. In addition, since a high-resolution camera has a narrow FoV (Field of View), a large GNSS error increases the possibility that the landing sign is not included in the image taken from the drone below. In addition, whenever the landing mark used by each drone is changed, new mark information must be reflected in the landing mark detection software.

한편, 템플릿 매칭 또는 템플릿 탐지 기술을 이용하여 위의 문제점을 어느 정도 해결할 수는 있다. 드론이 이륙을 완료한 후에 아래쪽을 촬영한 이미지의 중심 영역과 드론이 GNSS 정보에 기반하여 이륙을 완료한 위치로 복귀한 후 아래쪽을 촬영한 이미지를 정합하여 이륙 시 촬영한 이미지의 중심에 해당하는 좌표를 구할 수 있다. 하지만, GNSS 오차와 이륙 시 제어 오차로 인하여 이륙을 완료한 후에 아래쪽을 촬영한 이미지의 중심이 실제 이륙 위치와 같음을 보장할 수 없는 문제가 있다. 그리고, 이륙 완료 후 촬영한 이미지의 중심 영역이 잔디밭과 같이 단조로운 구성으로 되어 있다면 기존의 템플릿 매칭 또는 템플릿 탐지 기술로 정확한 이륙 위치를 찾을 수 없는 문제가 있다.Meanwhile, the above problem can be solved to some extent by using template matching or template detection technology. After the drone has completed take-off, the center area of the image taken at the bottom and the image taken at the bottom after the drone returns to the location where the drone has completed take-off based on GNSS information are matched to obtain the center of the image taken at take-off. coordinates can be obtained. However, due to GNSS errors and control errors during take-off, there is a problem in that it cannot be guaranteed that the center of the image taken from the bottom is the same as the actual take-off location after take-off is completed. In addition, if the central area of the image taken after take-off has a monotonous structure, such as a lawn, there is a problem in that an accurate take-off location cannot be found by conventional template matching or template detection technology.

본 발명은 위와 같은 문제점을 해결하기 위하여, 착륙 표지 없이도 템플릿 탐지 기술을 활용하여 이륙 위치를 탐지하여 착륙할 수 있는 드론 정밀 착륙 방법 및 장치를 개시한다.In order to solve the above problems, the present invention discloses a drone precise landing method and apparatus capable of landing by detecting a take-off position using a template detection technology without a landing mark.

도 1은 본 발명의 일 실시예를 따른 드론 정밀 착륙 과정을 보여주는 개념도이다.1 is a conceptual diagram showing a drone precision landing process according to an embodiment of the present invention.

본 명세서에 사용되는 용어를 먼저 정의하자면, 이륙 위치는 드론이 이륙을 시작한 수평 위치를 의미할 수 있다. 이륙 위치는 촬영 영상 내에서 이륙 위치에 해당하는 픽셀 좌표로 표현할 수 있다. 질의 이미지는 드론이 미리 설정된 고도까지 상승하여 이륙을 완료한 후에 카메라로 수직 아래쪽 영역을 촬영하여 획득한 이미지를 의미할 수 있다. 탐색 영역은 질의 이미지 내에서 이륙 위치를 중심으로 설정된 소정의 영역을 의미할 수 있다. 이륙 완료 위치로 복귀는 상기 드론의 이륙 완료 시점의 고도와 수평 위치로 이동을 의미할 수 있다. 대상 이미지는 이륙 완료 위치로 복귀 후 카메라로 수직 아래쪽 영역을 촬영하여 획득한 이미지를 의미할 수 있다. 대상 이미지 내에서 탐색 영역에 해당하는 영역을 찾을 수 있고, 대상 이미지 내에서 탐색 영역에 해당하는 영역을 착륙 영역이라고 할 수 있다. 착륙 위치는 착륙 영역의 중심 픽셀 좌표를 의미할 수 있다.To first define terms used in this specification, a take-off position may mean a horizontal position from which a drone takes off. The take-off location may be expressed as pixel coordinates corresponding to the take-off location in the photographed image. The query image may refer to an image obtained by photographing a vertically lower area with a camera after the drone ascends to a preset altitude and completes take-off. The search area may refer to a predetermined area set around the take-off location in the query image. Returning to the take-off position may mean movement to the altitude and horizontal position at the time of take-off completion of the drone. The target image may refer to an image obtained by photographing a vertically lower area with a camera after returning to the take-off completion position. An area corresponding to the search area may be found within the target image, and the area corresponding to the search area within the target image may be referred to as a landing area. The landing location may mean the center pixel coordinates of the landing area.

다시 도 1을 참조하면, 드론은 질의 이미지를 촬영하여 탐색 영역을 설정 및 저장할 수 있다. 이 후, 드론은 도시된 2번, 3 번 경로점 비행과 같은 미리 정의된 임무를 수행하고 이륙을 완료한 위치로 복귀할 수 있다. 이 때, GNSS 정보에 기반한 복귀는 주변 환경에 따른 오차가 있으므로 질의 이미지와 대상 이미지에 포함된 영역에는 필연적으로 차이가 발생할 수 있다. 드론 정밀 착륙 장치는 대상 이미지 내에서 탐색 영역에 해당하는 착륙 영역을 찾을 수 있고, 착륙 위치의 좌표를 도출하여 상기 착륙 위치에 해당하는 실제 좌표로 드론을 이동시켜서 착륙을 할 수 있다.Referring back to FIG. 1 , the drone may capture a query image to set and store a search area. Thereafter, the drone may perform a predefined mission, such as flying over route points 2 and 3, and return to the location where the take-off was completed. At this time, since the return based on the GNSS information has an error depending on the surrounding environment, a difference may inevitably occur between regions included in the query image and the target image. The drone precision landing device may find a landing area corresponding to a search area within a target image, derive coordinates of a landing location, and move the drone to actual coordinates corresponding to the landing location to land.

도 2는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 블록도이다.2 is a block diagram of a drone precision landing device according to an embodiment of the present invention.

드론 정밀 착륙 장치는 드론의 아래쪽 영역을 촬영하는 영상 촬영 모듈(110), 영상 촬영 모듈(110)로부터 받은 영상을 샘플링하고 영상 내의 특정 영역을 추적하는 영상 처리 모듈(120), 드론이 이륙 완료 위치로 복귀 후 촬영한 이미지에서 착륙 위치를 파악하는 착륙 위치 탐지 모듈(130), 영상 처리 모듈(120) 및 착륙 위치 탐지 모듈(130)과 연동하여 드론을 정밀 착륙하도록 하는 착륙 제어 모듈(140)을 포함한다.The drone precision landing device includes an image capture module 110 that captures the lower area of the drone, an image processing module 120 that samples an image received from the image capture module 110 and tracks a specific area within the image, and a location where the drone has completed take-off. After returning to the landing location detection module 130, which determines the landing location from the captured image, the landing control module 140 that allows the drone to land precisely in conjunction with the image processing module 120 and the landing location detection module 130 include

영상 촬영 모듈(110)은 드론의 수직 아래쪽 영역을 촬영하여 영상 처리 모듈(120)로 전달할 수 있다. 영상 촬영 모듈(110)은 촬영을 위한 카메라를 포함하고 있을 수 있다. 카메라는 짐벌을 통해 드론에 고정될 수 있다. 다시 말하면, 카메라는 각도 조정이 가능한 짐벌에 연결되어 있을 수 있고, 짐벌은 카메라가 항상 드론의 수직으로 아래에 있는 지면을 향하도록 조정할 수 있다. 한편, 카메라가 짐벌 없이 드론에 바로 부착된 경우에는 바람 등의 영향으로 드론이 흔들릴 때 정확히 수직 아래쪽을 촬영할 수 없어서 촬영 이미지의 중심이 드론의 수직 아래 위치가 아닐 수 있다. 따라서, 짐벌이 없는 경우에는 드론의 기울어짐 정도를 고려하여 드론의 수직 아래 위치에 해당하는 픽셀 좌표를 계산해야 할 수 있다. 대부분의 경우에 촬영 이미지의 중심 픽셀 좌표와 카메라 주점의 픽셀 좌표에는 차이가 있지만 본 문서에는 일치하는 것으로 가정할 수 있다.The image capture module 110 may capture an area vertically below the drone and transmit the image to the image processing module 120 . The image capturing module 110 may include a camera for capturing. The camera can be fixed to the drone via a gimbal. In other words, the camera can be connected to a gimbal that can be angled, and the gimbal can be adjusted so that the camera is always pointed at the ground directly below the drone. On the other hand, if the camera is directly attached to the drone without a gimbal, the center of the captured image may not be the vertical downward position of the drone because it cannot accurately capture the vertical downward position when the drone shakes due to wind or the like. Therefore, in the case where there is no gimbal, pixel coordinates corresponding to a vertical lower position of the drone may need to be calculated in consideration of the degree of inclination of the drone. In most cases, there is a difference between the center pixel coordinates of the captured image and the pixel coordinates of the camera principal point, but they can be assumed to coincide in this document.

영상 처리 모듈(120)은 영상 촬영 모듈(110)로부터 전달받은 영상을 샘플링하고, 샘플링한 영상에서 특정 영역을 추적하기 위한 처리를 할 수 있다. 영상 샘플링은 시간 또는 고도의 변화를 기준으로 할 수 있다. 영상 처리 모듈(120)은 영상 촬영 모듈(110)로부터 전달 받은 영상을 일정 시간 간격으로 샘플링 할 수 있고, 드론이 이륙하거나 상승할 때 고도 변화를 기준으로 샘플링 할 수도 있다. 드론이 수직으로 이륙하도록 비행 제어를 하더라도 GNSS 오차와 여러 제어 오차 때문에 이륙 시작 시 수평 위치를 유지하기 어려울 수 있다. 이 경우, 이륙 완료 후에 촬영한 영상의 중심과 이륙 위치 사이에는 차이가 있을 수 있다. 영상 처리 모듈(120)은 이륙 완료 후 촬영한 영상의 중심이 이륙 위치가 되도록 하기 위한 중심 영역 추적 기능을 포함하고 있을 수 있다. 중심 영역 추적 기능은 이륙 시작 후 낮은 고도에서 촬영한 영상의 중심이 실제 이륙 위치와 같다는 가정을 전제로 하고, 낮은 고도에서 촬영한 영상의 중심 영역을 추적 영역으로 설정 할 수 있다.The image processing module 120 may sample an image transmitted from the image capturing module 110 and may perform processing for tracking a specific region in the sampled image. Image sampling may be based on changes in time or elevation. The image processing module 120 may sample the image received from the image capture module 110 at regular time intervals, or may sample based on an altitude change when the drone takes off or ascends. Even if the drone is flight controlled to take off vertically, it may be difficult to maintain a horizontal position at the start of takeoff due to GNSS errors and various control errors. In this case, there may be a difference between the center of the image captured after take-off and the take-off position. The image processing module 120 may include a center area tracking function for making the center of the image taken after take-off complete to be the take-off position. The center area tracking function is based on the assumption that the center of the image captured at a low altitude after take-off is the same as the actual take-off location, and the center area of the image taken at a low altitude can be set as the tracking area.

착륙 위치 탐지 모듈(130)은 이륙 완료 후 촬영한 영상과 이륙 완료 위치로 복귀 후 촬영한 영상을 분석하여 착륙 위치를 파악할 수 있다. 다시 말하면, 착륙 위치 탐지 모듈(130)은 이륙 완료 후 촬영한 질의 이미지 및 질의 이미지 상에 설정된 탐색 영역을 토대로, 이륙 완료 위치로 복귀 후 촬영한 대상 이미지 상에서 착륙 영역 및 착륙 위치를 도출할 수 있다.The landing location detection module 130 may determine the landing location by analyzing an image taken after take-off completion and an image taken after returning to the take-off completion location. In other words, the landing location detection module 130 may derive the landing area and landing location on the target image captured after returning to the take-off location based on the query image captured after take-off and the search area set on the query image. .

착륙 제어 모듈(140)은 착륙 위치 탐지를 위한 촬영에 적합하도록 드론 헤딩을 조정하고, 착륙 위치 탐지 모듈(130)에서 파악한 착륙 위치로 정확하게 착륙하도록 드론을 제어할 수 있다.The landing control module 140 may control the drone to accurately land at the landing location determined by the landing location detection module 130 and adjust the drone heading to be suitable for shooting for landing location detection.

도 3은 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 이륙시 흐름도이다.3 is a flowchart of a drone precision landing device during takeoff according to an embodiment of the present invention.

드론이 이륙 시, 영상 촬영 모듈(110)은 드론의 하방을 촬영 할 수 있다(S201). 영상 처리 모듈(120)은 상기 영상 촬영 모듈(110)이 이륙하면서 촬영한 영상을 샘플링하고(S203), 샘플링한 영상들에서 중심 영역을 계속 추적하면 이륙 완료 후 촬영한 영상에서 이륙 위치를 정확히 파악할 수 있다(S205). 영상 처리 모듈(120)은 이륙을 하면서 촬영되는 영역이 넓어지게 되고 초기 추적 영역이 점차 작아져서 정확한 추적이 어려워지므로 촬영 고도가 높아지면 추적된 영역의 중심을 유지하면서 추적 대상 영역을 점차 확장(S207)할 수 있다. 여기서, 고도에 따라 확장된 추적 대상 영역을 다음 추적 대상 영역으로 사용하도록 할 수 있다(S209). 또한, 영상 처리 모듈(120)은 이륙 완료 후에 수직 아래쪽을 촬영한 영상, 이륙 위치, 드론의 헤딩 방향, 및 고도에 대한 정보를 저장할 수 있다(S211). 저장된 촬영한 영상, 이륙 위치, 드론의 헤딩 방향, 및 고도에 대한 정보는 착륙 시에 활용할 수 있다.When the drone takes off, the image capturing module 110 may photograph the lower side of the drone (S201). The image processing module 120 samples the images taken by the image capturing module 110 while taking off (S203), and continuously tracks the central area in the sampled images to accurately determine the take-off location from the images taken after take-off is completed. It can (S205). The image processing module 120 gradually expands the target area to be tracked while maintaining the center of the tracked area as the shooting altitude increases, since the area to be filmed widens during takeoff and the initial tracking area gradually becomes smaller, making accurate tracking difficult (S207 )can do. Here, the tracking target area extended according to the altitude may be used as the next tracking target area (S209). In addition, the image processing module 120 may store information about a vertical downward image taken after take-off, a take-off location, a heading direction of the drone, and an altitude (S211). Information on the stored video, take-off location, heading direction of the drone, and altitude can be used when landing.

도 4는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 착륙시 흐름도이고, 도 5는 본 발명의 일 실시예에 따른 드론 정밀 착륙 장치의 착륙 위치 탐지시 흐름도이다.4 is a flow chart of the drone precision landing device according to an embodiment of the present invention upon landing, and FIG. 5 is a flow chart of the drone precision landing device according to an embodiment of the present invention upon detecting a landing position.

드론이 수직으로 착륙하도록 비행 제어를 하더라도 GNSS 오차와 여러 제어 오차 때문에 착륙 시작 시점의 수평 위치를 그대로 유지하기 어렵다. 따라서, 착륙 완료 후 수평 위치와 착륙 시작 시점의 수평 위치 사이에는 차이가 있을 수 있다. 착륙 완료 후 수평 위치가 착륙 시작 시점의 수평 위치와 일치하도록 하기 위해서 다음과 같은 중심 영역 추적 기능이 필요하다. 영상 처리 모듈(120)은 착륙 시작 시점에 촬영한 영상의 중심 영역을 하강하면서 촬영한 영상들에서 계속 추적하고, 추적된 영역의 중심과 촬영 영상 중심 간의 오차를 착륙 제어 모듈(140)로 전달하여 수평 위치를 조정하도록 할 수 있다(S301). 중심 영역을 추적하며 하강하는 과정에서 영상 촬영 모듈(110)은 지속적으로 드론의 하방을 촬영하고, 촬영한 영상을 영상 처리 모듈(120)에 전달할 수 있다(S303). 영상 처리 모듈(120)은 상기 영상 촬영 모듈(110)이 하강하면서 촬영한 영상을 샘플링하고(S305), 샘플링한 영상들에서 중심 영역을 계속 추적할 수 있다(S307). 드론이 하강을 하면서 촬영하는 경우, 촬영되는 영역이 점점 좁아지게 되므로 초기 추적 대상 영역이 너무 커지거나 영상의 촬영 범위를 초과할 수 있다. 따라서 드론이 하강하면서 고도가 낮아지면 추적된 영역의 중심을 유지하면서 추적 대상 영역을 점차 축소할 수 있다(S309). 또한, 축소된 추적 대상 영역을 추적 대상 영역으로 재 설정하여, 다음 추적 대상 영역으로 사용할 수 있다(S311).Even if the drone is flight controlled to land vertically, it is difficult to maintain the horizontal position at the start of landing due to GNSS errors and various control errors. Therefore, there may be a difference between the horizontal position after landing and the horizontal position at the start of landing. In order to make the horizontal position after landing match the horizontal position at the start of landing, the following center area tracking function is required. The image processing module 120 continuously tracks the center area of the image taken at the start of landing in the images taken while descending, and transfers the error between the center of the tracked area and the center of the captured image to the landing control module 140 The horizontal position can be adjusted (S301). In the process of descending while tracking the center area, the image capturing module 110 may continuously image the lower side of the drone and transmit the captured image to the image processing module 120 (S303). The image processing module 120 may sample images captured while the image capturing module 110 descends (S305), and may continuously track the center area of the sampled images (S307). When the drone is descending and shooting, the area to be filmed gradually narrows, so the initial tracking target area may become too large or exceed the shooting range of the video. Accordingly, when the drone descends and the altitude decreases, the tracked area may be gradually reduced while maintaining the center of the tracked area (S309). In addition, the reduced tracking target area can be reset to the tracking target area and used as the next tracking target area (S311).

도 5를 참조하면, 착륙 위치 탐지 모듈(130)은 이륙 완료 후 촬영한 영상과 이륙 완료 위치로 복귀 후 촬영한 영상을 분석하여 착륙 위치를 파악할 수 있다(S401). 드론은 임무를 마친 후 이륙을 완료한 위치로 복귀하면, 드론의 헤딩 방향을 이륙 시의 헤딩 방향과 동일하게 정렬할 수 있다(S403). 이를 통해, 질의 이미지와 대상 이미지를 비슷한 방향에서 촬영할 수 있게 되어, 착륙 위치 탐지를 위한 영상 분석의 정확도를 높일 수 있는 효과가 있다. 드론의 헤딩을 정렬 후에 아래쪽 영역을 촬영하여 대상 이미지로 저장할 수 있다(S405). 착륙 위치 탐지 모듈(130)은 이륙 후 저장한 질의 이미지와 이륙 위치 그리고 대상 이미지를 착륙 위치 탐지용 인공 신경망의 입력으로 하여 착륙 위치를 탐지할 수 있다(S407). 착륙 위치 탐지용 인공 신경망은 아래에 자세히 기술한다. 착륙 위치를 탐지한 후 대상 이미지에서 착륙 위치 주변으로 일정 영역을 추적 대상 영역으로 설정 및 저장할 수 있다(S411). 상기 추적 대상 영역을 영상 처리 모듈(120)에 전달함으로써 도 4에서 도시한 착륙 과정이 시작된다.Referring to FIG. 5 , the landing location detection module 130 may determine the landing location by analyzing an image taken after take-off completion and an image taken after returning to the take-off completion location (S401). When the drone returns to the location where the take-off was completed after completing the mission, the drone's heading direction may be aligned with the heading direction at take-off (S403). Through this, the query image and the target image can be photographed in a similar direction, thereby increasing the accuracy of image analysis for detecting the landing position. After aligning the drone's heading, the lower area may be photographed and stored as a target image (S405). The landing position detection module 130 may detect the landing position by using the query image, the takeoff position, and the target image stored after takeoff as inputs of an artificial neural network for detecting the landing position (S407). An artificial neural network for landing location detection is described in detail below. After the landing location is detected, a certain area around the landing location in the target image may be set and stored as a tracking target area (S411). The landing process shown in FIG. 4 starts by transferring the tracking target area to the image processing module 120 .

도 6은 본 발명의 일 실시예에 따른 템플릿 탐지 결과를 예시적으로 보여주는 도면이다.6 is a diagram showing template detection results according to an embodiment of the present invention by way of example.

질의 이미지 내의 특정 영역을 대상 이미지에서 찾는 영상 정합을 위한 여러 가지 방법이 있고, 그 중에서 키 포인트 기반 템플릿 매칭 방법이 대표적인 방법이다. 하지만, 키 포인트 기반 템플릿 매칭 방법은 영상에서 사용 가능한 키 포인트의 개수가 부족하거나 키 포인트가 이미지의 특정 영역에 치우쳐 있다면 매칭 정확도가 낮아지는 문제가 있다. 따라서, 본 발명은 다양한 조건에서 높은 정확도로 착륙 위치를 찾기 위해서 인공 신경망 기반 템플릿 매칭 방법을 사용한다.There are several methods for image matching to find a specific region within a query image in a target image, and among them, a key point-based template matching method is a representative method. However, the key point-based template matching method has a problem in that matching accuracy is lowered if the number of usable key points in an image is insufficient or if the key points are concentrated in a specific region of an image. Therefore, the present invention uses an artificial neural network based template matching method to find a landing position with high accuracy under various conditions.

학습 데이터에 포함되지 않은 새로운 유형의 객체 또는 템플릿을 탐지하는 인공 신경망에 대한 기존 연구가 있다. 본 발명에서 제안하는 착륙 위치 탐지용 인공 신경망은 탐지할 템플릿을 입력으로 받지 않고, 질의 이미지를 입력으로 받아서 탐지할 템플릿을 자동으로 생성하는 단계를 추가로 포함하는 것을 특징으로 한다.There are existing studies on artificial neural networks that detect new types of objects or templates that are not included in the training data. The artificial neural network for landing location detection proposed in the present invention is characterized in that it further includes a step of automatically generating a template to be detected by receiving a query image as an input without receiving a template to be detected as an input.

본 발명은 이륙 후 촬영한 질의 이미지의 중심 일부 영역을 잘라내서 템플릿으로 사용하지 않고 인공 신경망에서 템플릿을 자동 생성할 수 있다. 도 6을 참조하면, 도 6(a)와 같이 흰색 네모 영역을 착륙 위치 템플릿으로 하면, 이륙 완료 위치로 복귀 후 촬영한 영상에서 템플릿을 찾을 때 정확히 한 영역을 특정하기 어려울 수 있다. 예를 들면, 도 6(b)와 같이 길을 따라서 여러 영역이 유사하게 보이므로 어느 곳을 착륙 위치로 할지 결정하지 못하게 된다. In the present invention, a template may be automatically generated in an artificial neural network without cutting out a part of the center of a query image captured after take-off and using it as a template. Referring to FIG. 6 , if a white square area is used as a landing location template as shown in FIG. 6 (a), it may be difficult to specify exactly one area when searching for a template in an image taken after returning to the take-off location. For example, since several areas along the road look similar as shown in FIG.

한편, 도 6(c)와 같이 중심에서 더 확장된 영역을 템플릿으로 사용하면 굽어진 길과 숲 일부가 템플릿에 포함되게 되므로, 도 6(d)와 같이 이륙 완료 위치로 복귀 후 촬영한 영상에서 정확히 한 영역을 특정할 수 있게 된다. 따라서, 이륙 완료 후 촬영한 질의 이미지의 중심 부근으로 얼마나 확장된 영역을 템플릿, 즉, 탐색 영역으로 설정하면 탐지 정확도를 높일 수 있을지 판단하고 탐색 영역을 자동으로 설정할 수 있어야 한다.On the other hand, if the area further expanded from the center is used as a template as shown in Fig. 6(c), the curved road and part of the forest are included in the template, so in the image taken after returning to the take-off completion position as shown in Fig. 6(d), It is possible to specify exactly one area. Accordingly, it is necessary to determine whether the detection accuracy can be improved by setting an area extended to the vicinity of the center of the query image captured after take-off as a template, ie, a search area, and automatically set the search area.

도 7은 본 발명의 일 실시예에 따른 착륙 위치 탐지용 인공 신경망의 개념도이다.7 is a conceptual diagram of an artificial neural network for detecting a landing position according to an embodiment of the present invention.

착륙 위치 탐지용 인공 신경망은 템플릿 제안 신경망(Template Proposal Network)과 템플릿 탐지 신경망(Template Detection Network)으로 구성될 수 있다. 템플릿 제안 신경망(Template Proposal Network)은 질의 이미지가 입력되면, 착륙 위치 탐지용으로 적합한 탐색 영역을 설정하고, 설정된 탐색 영역에 대한 정보를 템플릿 탐지 신경망(Template Detection Network)에 입력으로 전달할 수 있다. 이 때, 이륙 완료 후 촬영한 영상의 중심이 이륙 위치가 아닐 수 있기 때문에 이륙 위치가 중심이 되도록 자른 이미지를 질의 이미지로 사용할 수 있다. An artificial neural network for detecting a landing location may be composed of a template proposal neural network and a template detection neural network. When a query image is input, the Template Proposal Network may set a search area suitable for detecting a landing location and transmit information about the set search area as an input to the Template Detection Network. In this case, since the center of an image captured after take-off may not be the take-off position, an image cropped so that the take-off position is the center may be used as a query image.

템플릿 탐지 신경망(Template Detection Network)은 템플릿 제안 신경망(Template Proposal Network)으로부터 전달받은 탐색 영역을 대상 이미지에서 탐지하는 기능을 수행한다. 더욱 상세하게 설명하자면, 대상 이미지에서 질의 이미지의 탐색 영역에 대응하는 영역을 탐지할 수 있고, 이 영역이 착륙 영역이 될 수 있다. 이때, 드론이 정밀한 착륙을 하기 위해서는 영역 정보가 아니라 영역의 중심 좌표만 알면 충분하므로 템플릿 탐지 신경망(Template Detection Network)은 탐지한 착륙 영역의 중심 좌표를 출력할 수 있다.A template detection network performs a function of detecting a search area received from a template proposal network in a target image. More specifically, an area corresponding to the search area of the query image may be detected in the target image, and this area may be a landing area. At this time, in order for the drone to land precisely, it is enough to know only the center coordinates of the area, not the area information, so the template detection network can output the center coordinates of the detected landing area.

템플릿 제안 신경망(Template Proposal Network)이 출력하는 탐색 영역의 중심은 이륙 위치와 같거나 차이가 적어야 하며, 질의 이미지 내의 다른 영역과 구분이 되는 특징을 포함하도록 해야 한다. 따라서, 생성한 탐색 영역의 중심과 실제 이륙 위치의 오차가 증가하면 손실이 증가하고, 템플릿 탐지 신경망(Template Detection Network)이 출력하는 착륙 영역의 중심 좌표와 실제 착륙 위치의 차이가 증가하면 손실이 증가하도록 손실 함수를 정의할 수 있다.The center of the search area output by the Template Proposal Network must be the same as or less different from the take-off location, and must include a feature distinguishing it from other areas in the query image. Therefore, the loss increases when the error between the center of the generated search area and the actual take-off location increases, and the loss increases when the difference between the center coordinates of the landing area output by the Template Detection Network and the actual landing location increases. A loss function can be defined to

이륙 위치가 탐색 영역의 중앙이 되도록 하지 않더라도 탐색 영역 내에 포함이 되면 착륙 영역을 찾은 후에 변환 행렬을 계산하여 이륙 위치에 해당하는 착륙 위치를 계산할 수 있다. 단, 변환 행렬을 정확히 계산하기 위해서는 착륙 영역이 탐색 영역과 차이가 적어야 하며, 질의 이미지와 대상 이미지의 촬영 방향에 차이가 있을 수 있으므로 템플릿 탐지 신경망(Template Detection Network)에서 기울어짐을 고려한 착륙 영역 정보를 출력해야 한다. 즉, 템플릿 탐지 신경망(Template Detection Network)는 착륙 영역 정보로써 착륙 영역의 중앙 X, Y 좌표, 영역의 폭과 넓이의 4개의 값을 출력하는 것이 아니라, 착륙 영역 4개 꼭지점의 X, Y 좌표를 출력해야 한다. 인공 신경망이 결정해야 하는 변수가 증가하면 학습 시 수렴이 더 어려워지고, 객체 탐지용 인공 신경망에서 많이 사용되는 앵커 박스(anchor box)를 사용하기도 어려워진다. 따라서, 탐색 영역과 착륙 영역이 일치하도록 하기 보다는 두 영역의 중심 오차만 손실 함수에 사용되도록 하는 것이 바람직하다.Even if the take-off location is not located at the center of the search area, if it is included in the search area, a landing location corresponding to the take-off location can be calculated by calculating a transformation matrix after finding the landing area. However, in order to accurately calculate the transformation matrix, the difference between the landing area and the search area must be small, and since there may be a difference in the shooting direction of the query image and the target image, the landing area information considering the tilt in the Template Detection Network should output That is, the template detection network does not output four values of the center X and Y coordinates of the landing area and the width and width of the area as landing area information, but the X and Y coordinates of the four vertices of the landing area. should output As the number of variables to be determined by the artificial neural network increases, convergence becomes more difficult during learning, and it becomes difficult to use an anchor box, which is widely used in artificial neural networks for object detection. Therefore, it is preferable to use only the center error of the two regions in the loss function rather than making the search region and the landing region coincide.

또한, 템플릿 제안 신경망(Template Proposal Network)은 한 개의 탐색 영역을 생성하는 것이 아니고 복수의 탐색 영역을 생성할 수도 있다. 복수의 탐색 영역을 템플릿 탐지 신경망(Template Detection Network)의 입력으로 해서 찾은 복수의 착륙 영역 정보를 융합하여 착륙 위치 탐지 정확도 향상을 기대할 수 있다.Also, the template proposal neural network may generate a plurality of search areas instead of one search area. Landing location detection accuracy can be improved by fusing information on a plurality of landing areas found using a plurality of search areas as inputs of a template detection network.

착륙 표지가 있는 경우에는 상기 착륙 위치 탐지용 인공 신경망 외에 착륙 표지 탐지 기능을 추가로 실행하고, 착륙 위치 탐지용 인공 신경망이 파악한 착륙 위치와 가장 가까운 착륙 표지를 최종 착륙 위치로 결정함으로써 착륙 정밀도를 더 높일 수 있다.If there is a landing mark, a landing mark detection function is additionally executed in addition to the artificial neural network for landing position detection, and the landing position closest to the landing position identified by the artificial neural network for landing position detection is determined as the final landing position, thereby increasing the landing precision. can be raised

착륙 제어 모듈(140)은 착륙 위치 탐지를 위한 촬영에 적합하도록 드론 헤딩을 조정하고, 착륙 위치 탐지 모듈(130)에서 파악한 착륙 위치로 정확하게 착륙하도록 제어 기능을 수행할 수 있다. 이륙 완료 후 촬영한 질의 이미지와 이륙 완료 지점으로 복귀 후 촬영한 대상 이미지를 분석하여 착륙 위치를 파악하게 되는데, 두 이미지의 촬영 방향에 차이가 적을수록 분석 정확도가 높아질 것으로 기대된다. 따라서, 이륙 완료 후 질의 이미지를 촬영할 때 드론의 헤딩 방향을 저장해두고, 이륙 완료 지점으로 복귀 후 드론의 헤딩을 저장된 방향으로 조정하고 대상 이미지를 촬영하도록 한다.The landing control module 140 may perform a control function to adjust the drone heading to be suitable for shooting for detecting the landing location and accurately land at the landing location determined by the landing location detection module 130 . The landing location is identified by analyzing the quality image taken after take-off and the target image taken after returning to the take-off point. The smaller the difference in the shooting direction of the two images, the higher the analysis accuracy. Therefore, when taking a query image after take-off, the heading direction of the drone is stored, and after returning to the take-off point, the drone's heading is adjusted to the stored direction and a target image is captured.

착륙 위치가 파악되면 드론을 제어해서 착륙 위치를 향해 하강하게 되는데, 착륙 위치 수직 위로 이동 후에 착륙을 시작하더라도 제어 오차로 인해 실제 착륙 위치는 다를 가능성이 높다. 도 4를 참조하면, 드론이 하강하면서 영상 처리 모듈(120)에서 착륙 영역을 계속 추적하고, 추적된 착륙 영역이 촬영 영상의 중심이 되도록 드론의 수평 위치를 조정하면서 하강하도록 한다.When the landing location is identified, the drone is controlled to descend toward the landing location. Even if the drone starts landing after moving vertically above the landing location, the actual landing location is likely to be different due to control errors. Referring to FIG. 4 , while the drone descends, the image processing module 120 continuously tracks the landing area, and adjusts the horizontal position of the drone so that the tracked landing area becomes the center of the captured image while descending.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

기존의 미리 정해진 착륙 표지를 탐지하는 방법은 드론 개수가 증가하는 경우에 착륙 표지들 사이에 차이를 만들기 위해서는 착륙 표지가 복잡해져야 할 뿐만 아니라, 착륙을 시작하는 고도에서 차이를 구분할 수 있을 정도로 표지가 커져야 하는 단점이 있다. 또한, 착륙을 시작하는 고도가 높을 때 촬영한 영상에서 착륙 표지의 차이를 구분할 수 있기 위해서는 고해상도이면서 화각이 넓은 고가의 카메라를 드론에 장착해야 하므로 비용이 증가하는 문제가 있다. 더욱이, 야외 환경에서 빛이 강하게 비칠 때, 표지 패턴의 작은 차이는 높은 고도에서 촬영한 영상에서 사라질 수 있고, 조도가 낮은 경우에는 작은 차이가 드러나지 않을 수 있는 문제가 있다. Existing methods of detecting pre-determined landing markers not only require complex landing markers to make a difference between them when the number of drones increases, but also require that the markers are sufficiently complex to distinguish differences at landing start altitudes. There are downsides to growing up. In addition, in order to be able to distinguish the difference between the landing marks in the image taken when the landing start altitude is high, an expensive camera with a high resolution and a wide angle of view must be mounted on the drone, which increases the cost. Moreover, when light shines strongly in an outdoor environment, small differences in cover patterns may disappear from images taken at high altitudes, and small differences may not be revealed in low illumination.

이에 반하여, 본 발명은 신경망을 활용한 템플릿 탐지를 통해 이륙한 위치로 정밀하게 착륙할 수 있는 발명으로서, 좁은 영역에 동일한 착륙 표지를 복수로 사용할 수 있어서 표지 제작과 표지 탐지용 카메라의 비용을 줄이고, 표지 탐지 알고리즘의 복잡도를 줄일 수 있는 효과가 있다.In contrast, the present invention is an invention that can precisely land at the take-off position through template detection using a neural network, and can use a plurality of identical landing signs in a small area, thereby reducing the cost of manufacturing signs and cameras for detecting signs. , it has the effect of reducing the complexity of the label detection algorithm.

또한, 기존의 방법의 경우, 동일한 착륙 표지를 사용하고 드론이 착륙을 시작하기 전에 촬영한 영상에 동일한 착륙 표지가 복수 개 포함된다면, 동일한 착륙 표지를 구분할 수 없어 여러 드론이 같은 표지에 착륙을 시도하게 되어 충돌의 위험이 있을 수 있다. 상기와 같이 동일한 착륙 표지를 사용하면서 착륙 시 충돌 위험을 없애기 위해서는 착륙 표지들 간에 충분한 간격이 확보되어서 드론이 GNSS 정보에 기반하여 이륙 완료 위치로 복귀 후 촬영한 영상에 한 개의 표지만 포함될 수 있어야 한다. 하지만, 나무나 바위 등의 장애물이 없는 평지가 협소한 환경에서는 표지 간에 충분한 간격을 두기 어려운 문제가 있다.In addition, in the case of the existing method, if the same landing marker is used and a plurality of identical landing markers are included in the video taken before the drone starts landing, the same landing marker cannot be distinguished, so several drones try to land on the same marker. Doing so may result in a risk of collision. In order to eliminate the risk of collision during landing while using the same landing marker as described above, a sufficient distance must be secured between the landing markers so that only one marker can be included in the video taken after the drone returns to the take-off location based on GNSS information. . However, in a narrow environment where there are no obstacles such as trees or rocks, there is a problem in that it is difficult to leave a sufficient gap between the signs.

이에 반하여, 본 발명은 신경망을 활용한 템플릿 탐지를 통해 이륙한 위치로 정밀하게 착륙할 수 있는 발명으로서, 좁은 영역에서도 동일한 착륙 표지를 사용하면서 복수의 드론들이 안전하게 정밀 착륙할 수 있다. 특히, 본 발명은 파악된 착륙 위치와 가장 가까운 착륙 표지로 착륙을 할 수도 있지만, 착륙 표지 없이 임의의 장소에서 이륙을 하더라도 이륙한 장소로 정밀 착륙이 가능한 장점이 있다. In contrast, the present invention is an invention that can precisely land at the take-off position through template detection using a neural network, and a plurality of drones can safely and precisely land while using the same landing marker even in a narrow area. In particular, the present invention may land at a landing mark closest to the identified landing position, but has the advantage of enabling precise landing at the take-off place even if take-off is made at an arbitrary place without a landing mark.

또한, 기존의 방법들은 착륙 표지나 기타 착륙 유도 장치가 없으면 GNSS 정보에 기반하여 착륙할 수 밖에 없어서 정밀도가 낮고 주변에 장애물이 있다면 착륙 중에 드론이 장애물과의 충돌 등으로 파손될 수 있다. In addition, the existing methods can only land based on GNSS information if there is no landing sign or other landing guidance device, so the precision is low, and if there are obstacles around, the drone may be damaged due to collision with the obstacle during landing.

이에 반하여, 본 발명은 신경망을 활용한 템플릿 탐지를 통해 이륙한 위치로 정밀하게 착륙할 수 있음으로써, 착륙 유도를 위한 추가적인 장치 없이 이륙 위치로 정밀 착륙을 수행할 수 있는 장점이 있다.On the other hand, the present invention has the advantage of being able to precisely land at the take-off position through template detection using a neural network, thereby performing a precise landing at the take-off position without an additional device for guiding landing.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the present invention described in the claims below. You will be able to.

110 영상 촬영 모듈
120 영상 처리 모듈
130 착륙 위치 탐지 모듈
140 착륙 제어 모듈
110 video shooting module
120 image processing module
130 landing position detection module
140 Landing Control Module

Claims (1)

드론 정밀 착륙 방법에 있어서,
영상 촬영 모듈로부터 전달받은 질의 이미지 상에 탐색 영역을 설정하는 단계;
상기 질의 이미지의 촬영 시의 헤딩 방향으로 드론의 헤딩 방향을 정렬하는 단계;
상기 영상 촬영 모듈로부터 대상 이미지를 전달받는 단계;
상기 대상 이미지에서 착륙 위치를 탐지하고, 착륙 영역을 설정하는 단계;
상기 착륙 영역을 추적 대상 영역으로 설정하는 단계; 및
상기 추적 대상 영역이 촬영 영상의 중심에 위치하도록 수평 위치를 조정하며 하강하는 단계;를 포함하고,
상기 탐색 영역을 설정하는 단계는,
템플릿 제안 신경망(Template Proposal Network)을 활용하여 상기 질의 이미지 상에 상기 탐색 영역을 자동으로 생성하는 것을 특징으로 하는,
드론 정밀 착륙 방법.
In the drone precision landing method,
setting a search area on the query image transmitted from the image capturing module;
aligning the heading direction of the drone with the heading direction when the query image is captured;
receiving a target image from the imaging module;
Detecting a landing position in the target image and setting a landing area;
setting the landing area as a tracking target area; and
Adjusting the horizontal position of the region to be tracked so that the region to be tracked is located at the center of the photographed image and descending;
In the step of setting the search area,
Characterized in that the search area is automatically generated on the query image by utilizing a template proposal network.
How to land a drone with precision.
KR1020220000759A 2022-01-04 2022-01-04 Method for precision landing of drone and device thereof KR20230105412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220000759A KR20230105412A (en) 2022-01-04 2022-01-04 Method for precision landing of drone and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220000759A KR20230105412A (en) 2022-01-04 2022-01-04 Method for precision landing of drone and device thereof

Publications (1)

Publication Number Publication Date
KR20230105412A true KR20230105412A (en) 2023-07-11

Family

ID=87159509

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220000759A KR20230105412A (en) 2022-01-04 2022-01-04 Method for precision landing of drone and device thereof

Country Status (1)

Country Link
KR (1) KR20230105412A (en)

Similar Documents

Publication Publication Date Title
US11794890B2 (en) Unmanned aerial vehicle inspection system
US11550315B2 (en) Unmanned aerial vehicle inspection system
US9513635B1 (en) Unmanned aerial vehicle inspection system
CN109931939B (en) Vehicle positioning method, device, equipment and computer readable storage medium
CN109324337B (en) Unmanned aerial vehicle route generation and positioning method and device and unmanned aerial vehicle
EP3729227B1 (en) Image based localization for unmanned aerial vehicles, and associated systems and methods
CN106874854B (en) Unmanned aerial vehicle tracking method based on embedded platform
CN106054929A (en) Unmanned plane automatic landing guiding method based on optical flow
KR100842101B1 (en) Automatic recovery method of uav using vision information
KR101872609B1 (en) Apparatus and method for precision landing guidance
CN109739257A (en) Merge the patrol unmanned machine closing method and system of satellite navigation and visual perception
CN109460046B (en) Unmanned aerial vehicle natural landmark identification and autonomous landing method
CN106373433A (en) Method and device for setting flight path of aircraft
CN108710381A (en) A kind of servo-actuated landing method of unmanned plane
KR102289752B1 (en) A drone for performring route flight in gps blocked area and methed therefor
KR102349818B1 (en) Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes
CN107576329B (en) Fixed wing unmanned aerial vehicle landing guiding cooperative beacon design method based on machine vision
Kamat et al. A survey on autonomous navigation techniques
KR101537324B1 (en) Automatic carrier take-off and landing System based on image processing
KR20230105412A (en) Method for precision landing of drone and device thereof
Lee et al. Safe landing of drone using AI-based obstacle avoidance
KR102585428B1 (en) An automatic landing system to guide the drone to land precisely at the landing site
US20220406040A1 (en) Method and device for generating learning data for an artificial intelligence machine for aircraft landing assistance
KR20200064236A (en) Structure inspection system and method using dron
RU2813215C1 (en) Complex of autonomous landing aids for unmanned aircraft