KR101665315B1 - Estimation method and equipment of landing position of object dropped from UAV - Google Patents

Estimation method and equipment of landing position of object dropped from UAV Download PDF

Info

Publication number
KR101665315B1
KR101665315B1 KR1020140142697A KR20140142697A KR101665315B1 KR 101665315 B1 KR101665315 B1 KR 101665315B1 KR 1020140142697 A KR1020140142697 A KR 1020140142697A KR 20140142697 A KR20140142697 A KR 20140142697A KR 101665315 B1 KR101665315 B1 KR 101665315B1
Authority
KR
South Korea
Prior art keywords
dummy
point
dropping
image
unmanned
Prior art date
Application number
KR1020140142697A
Other languages
Korean (ko)
Other versions
KR20160046583A (en
Inventor
서지원
김우현
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020140142697A priority Critical patent/KR101665315B1/en
Publication of KR20160046583A publication Critical patent/KR20160046583A/en
Application granted granted Critical
Publication of KR101665315B1 publication Critical patent/KR101665315B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles

Abstract

본 발명은 무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 무인 항공기 조절 장치에 관한 발명이다. 본 발명은 무인항공기로부터 수신한 영상 정보를 이용하여 상기 무인 항공기에서 투하된 더미의 이미지를 추출하는 이미지 추출부 및 상기 이미지 추출부로부터 제공된 더미의 이미지로부터 상기 무인 항공기에서 낙하시킬 물체의 위치를 예측하고, 상기 물체가 목표 지점에 도달하기 위한 상기 무인 항공기의 이동 위치를 계산하는 낙하 위치 예측부를 포함할 수 있다.The present invention relates to an unmanned aerial vehicle control apparatus for dropping an object to a target point by using an unmanned airplane. The present invention relates to an image processing apparatus, an image processing method, an image processing method, an image processing method, an image processing method, an image processing method, an image processing method, And a falling position predicting unit for calculating a moving position of the UAV to reach the target point.

Description

무인항공기에서 투하하는 물체의 착지 위치 예측 방법 및 장치{Estimation method and equipment of landing position of object dropped from UAV}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for estimating a landing position of an object to be unloaded from an unmanned airplane,

본 발명은 무인항공기에서 투하시킨 물체의 착지 위치를 예측하는 방법 및 장치에 관한 것이다. 보다 자세하게는, 무인항공기를 이용하여 더미를 투하시키고, 더미가 착지된 위치 정보가 담긴 영상 정보를 수집하여 무인항공기에서 투하시킬 물체의 착지 위치를 예측하는 방법 및 장치에 관한 것이다.Field of the Invention [0002] The present invention relates to a method and apparatus for predicting a landing position of an object dropped from an unmanned aerial vehicle. More particularly, the present invention relates to a method and apparatus for estimating a landing position of an object to be unloaded from an unmanned airplane by dropping a dummy using an unmanned airplane and collecting image information containing positional information on the landed dummy.

최근 우리나라에서 해양 사고 발생으로 인해 긴급 해양구조시스템 개발에 대한 관심이 급부상하게 되었다. 해양 사고 발생시 초기 대처가 재난피해를 줄이는데 있어서 매우 중요하다. 그런데 해양 사고 발생시 구조를 위한 인력을 항상 충분히 배치해두는 것은 어렵기 때문에 최근 들어 국가에서 무인 이동체에 대한 연구를 본격적으로 지원할 수 있도록 추진하고 있다.Recently, interest in the development of an emergency maritime rescue system has emerged due to the occurrence of marine accidents in Korea. Early action in the event of a marine accident is very important in reducing disaster damage. However, since it is difficult to always place enough manpower for rescue in case of a marine accident, the government is promoting the research on the unmanned mobile body in earnest in recent years.

무인 항공기를 이용하여 구조를 요청하는 사람들에게 구조 용품을 전달하는 방법에 있어서 현재는 목표 위치에 대한 위도와 경도 정보를 통해 목표 지점에 구조 용품을 투하시키도록 하고 있다. 그러나 상기와 같은 방법에 의해서는 재난 발생 지역의 바람과 지형의 영향으로 인해 투하시킨 구조 용품이 구조 요청자에게 정확히 전달되기 어렵다.In the method of delivering rescue goods to people requesting rescue using an unmanned aircraft, it is now required to drop the rescue goods to the target point through latitude and longitude information about the target location. However, by the above method, it is difficult for the structural articles dropped due to the influence of the wind and the terrain of the disaster occurrence area to be accurately transmitted to the requestor of the structure.

따라서 무인 항공기에서 투하 지점 주변의 환경 변수와 지리적 변수를 반영하여 투하하는 물체의 착지 위치 예측 방법 및 장치가 요구된다.Therefore, there is a need for a method and an apparatus for predicting landing position of an object to be unloaded in an unmanned airplane in consideration of environmental variables and geographical variables around the unloading point.

한국공개특허 제2008-0027214호Korean Patent Publication No. 2008-0027214

본 발명이 해결하고자 하는 기술적 과제는 더미를 투하시키고, 투하된 더미의 착지 위치에 관한 항공 영상을 수집하고, 상기 주변 항공 영상을 이용하여 물체의 투하 위치를 결정하는 무인 항공기를 제공하는 것이다.An object of the present invention is to provide an unmanned aerial vehicle for dropping a dummy, collecting aerial images relating to a landing position of a dropped dummy, and determining a dropping position of the object using the surrounding aerial image.

본 발명이 해결하고자 하는 다른 기술적 과제는 무인 항공기에 고도의 센서를 탑재시키지 않고도 투하 지역 주변의 환경 변수를 반영한 물체의 투하 위치를 결정하는 무인 항공기를 제공하는 것이다.Another object of the present invention is to provide an unmanned airplane that determines an unloading position of an object reflecting environmental parameters around a unloading area without mounting a high-level sensor on the unmanned airplane.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 무인 항공기 조절 장치는, 무인항공기로부터 수신한 영상 정보를 이용하여 상기 무인 항공기에서 투하된 더미의 이미지를 추출하는 이미지 추출부와 상기 이미지 추출부로부터 제공된 더미의 이미지로부터 상기 무인 항공기에서 낙하시킬 물체의 위치를 예측하고, 상기 물체가 목표 지점에 도달하기 위한 상기 무인 항공기의 이동 위치를 계산하는 낙하 위치 예측부를 포함할 수 있다.According to an aspect of the present invention, there is provided an apparatus for controlling an unmanned airplane, comprising: an image extracting unit for extracting an image of a dummy dropped from the unmanned airplane using image information received from the unmanned airplane; And a drop position predictor for estimating a position of an object to be dropped from the unmanned airplane from the image of the dummy provided from the unmanned airplane, and calculating a moving position of the unmanned airplane for the object to reach the target point.

상기 낙하 위치 예측부는 상기 영상을 촬영한 무인 항공기의 촬영 고도과 동일한 고도 상의 투하 위치를 결정하기 위하여, 상기 투하된 더미들의 중심점을 계산하여 상기 중심점과 상기 목표 지점 사이의 거리를 계산하여 상기 무인 항공기의 이동 위치를 계산하는 것을 더 포함할 수 있다.The falling position predicting unit calculates a center point of the dropped dummies and calculates a distance between the center point and the target point so as to determine a drop position at the same altitude as the shooting altitude of the unmanned airplane, And calculating a movement position.

상기 무인 항공기 조절 장치는 투하된 더미가 목표 지점으로부터 일정 반경 내에 도달할 경우, 상기 무인 항공기로 물체에 대한 투하 명령을 하고, 투하된 더미가 목표 지점으로부터 일정 반경 내에 도달하지 못한 경우, 상기 낙하 위치 측부에서 계산한 상기 무인 항공기 이동 위치에서 다시 더미를 투하시키는 것을 반복하도록 제어하는 비행 제어부 구성을 더 포함할 수 있다.When the dropped dummy reaches a certain radius from the target point, the unmanned airplane control device issues a drop instruction to the object with the unmanned airplane, and when the dropped dummy does not reach within a certain radius from the target point, And repeating the loading of the dummy again at the unmanned airplane moving position calculated by the side portion.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 무인 항공기는, 적어도 하나 이상의 더미를 투하하는 더미 투하부와 상기 투하된 더미와 목표물을 함께 담은 영상을 촬영하는 카메라부와 상기 투하된 더미가 목표물에 도달할 수 있도록 위치를 이동시키는 UAV 제어부를 포함할 수 있다. 이 때, 더미가 목표물에 도달할 때, 물체를 투하시킬 수 있다.According to an aspect of the present invention, there is provided an unmanned aerial vehicle including a dummy drop unit for dropping at least one dummy, a camera unit for capturing an image containing the dropped dummy and the target, And a UAV controller that moves the position so that the target can reach the target. At this time, when the dummy reaches the target, the object can be dropped.

상기 더미 투하부는 복수개의 더미를 투하할 경우, 일정한 속도로 상기 더미들을 투하시키도록 하는 더미가 목표물에 도달할 때, 물체를 투하시킬 수 있다.The dummy drop portion can drop an object when a dummy for dropping the dummy at a constant speed reaches a target when dropping a plurality of dummy.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법은, 목표 지점 부근에서 적어도 하나 이상의 더미를 투하시키는 단계와 상기 투하된 더미와 목표 지점이 나타나도록 정지 영상을 촬영하는 단계와 상기 촬영된 정지 영상을 기초로 하여 계산된 무인 항공기의 이동 위치 정보에 따라 무인 항공기가 이동하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for dropping an object to a target point using an unmanned airplane, comprising: dropping at least one dummy near a target point; And moving the UAV according to the movement position information of the UAV calculated on the basis of the captured still image.

이 때, 상기 무인 항공기가 이동한 후, 상기 더미를 투하하는 단계부터 반복하여 실행할 수 있다.At this time, after the unmanned airplane moves, it can be repeatedly executed from the step of dropping the dummy.

상기 무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법은, 상기 투하한 더미가 목표 지점에 투하된 경우, 상기 투하 위치에서 물체를 투하시키는 단계를 더 포함할 수 있다.The method for dropping an object to a target point using the unmanned airplane may further include dropping an object at the dropping position when the dropped dummy is dropped at a target point.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 무인 항공기를 제어하여 물체를 목표 지점에 투하하기 위한 투하 지점을 산정하는 방법은, 적어도 하나 이상의 더미와 목표 지점이 담긴 영상을 수신하는 단계와 상기 영상으로부터 상기 더미 이미지를 추출하는 단계와 상기 더미 이미지로부터 투하할 지점을 산정하는 단계와 상기 투하할 지점에 대한 정보를 송신하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for controlling an unmanned airplane and dropping an object at a target point, the method including: receiving an image including at least one dummy and a target point; And extracting the dummy image from the image, calculating a drop point from the dummy image, and transmitting the information about the drop point.

상기 투하 지점을 산정하는 단계는, 상기 더미 이미지의 중심을 원점으로 하여 원을 그리는 단계와 상기 원이 복수개인 경우, 복수개의 원이 겹쳐져 만나는 점을 연결하는 선분을 생성하는 단계와 상기 선분의 중심을 연결하여 도형을 생성하는 단계와 상기 생성된 도형 내부에 상기 선분의 중심까지의 거리가 동일한 중심점을 찾는 단계를 더 포함할 수 있다.The step of calculating the dropping point may include a step of drawing a circle with the center of the dummy image as an origin, a step of creating a line segment connecting a point where a plurality of circles overlap each other when the circle is plural, And a step of finding a center point having the same distance to the center of the line segment within the generated figure.

상기 무인 항공기를 제어하여 물체를 목표 지점에 투하하기 위한 투하 지점을 산정하는 방법은 상기 중심점이 목표 지점으로부터 일정 반경 이내에 위치하는지 판단하는 단계와 상기 중심점이 목표 지점으로부터 일정 반경 이내에 위치하는 것이 아니라면, 투하 지점과 상기 중심점 사이의 각도를 이용하여 목표 지점에 상기 더미가 투하되기 위한 투하할 지점을 계산하는 단계와 상기 계산한 투하할 지점을 송신하는 단계를 포함할 수 있다.The method for calculating a dropping point for dropping an object to a target point by controlling the unmanned aerial vehicle includes the steps of: determining whether the center point is located within a predetermined radius from the target point; and, if the center point is not located within a certain radius from the target point, Calculating a dropping point for dropping the dummy at a target point using an angle between the dropping point and the center point, and transmitting the calculated dropping point.

상기와 같은 본 발명에 따르면, 무인 항공기를 이용하여 구조 용품을 투하시킴으로서 구조 활동에 필요한 인력을 절감할 수 있는 효과가 있다.According to the present invention, it is possible to reduce the manpower required for the rescue operation by dropping the rescue goods using the UAV.

또한, 본 발명에서 제안하는 무인 항공기는 먼저 더미를 투하시키고, 투하된 더미의 착지 위치 지점으로부터 무인 항공기의 투하 위치를 계산하여 투하시킴으로써 보다 정확한 구조 용품의 전달이 가능하게 할 수 있는 효과가 있다.In addition, the unmanned airplane proposed in the present invention is capable of delivering more accurate structural articles by first dropping the dummy, calculating the dropping position of the UAV from the landing position of the dropped dummy, and dropping it.

더불어, 구조 용품 대신에 더미와 같이 값싼 물체를 투하시켜 착지한 위치를 관찰함으로써 더미보다 비싼 구조 용품이 구조 요청자에게 정확히 전달되지 않고 낭비되는 것을 줄일 수 있는 효과가 있다.In addition, by observing the landing position by dropping a cheap object such as a dummy in place of the structural article, it is possible to reduce the waste of the structural article, which is more expensive than the dummy, to the structural requester.

도 1과 2는 무인 항공기를 이용한 재난 사고 구조시 발생할 수 있는 문제를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따라 무인 항공기에 탑재되는 더미의 작동 방식을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따라 무인 항공기에서 투하한 물체의 착지 지점을 예측하기 위해 더미를 투하하는 동작을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따라 무인 항공기에서 투하한 물체의 착지 지점을 예측하기 위해 더미를 투하한 후의 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라 투하된 더미들의 착지 위치가 서로 다른 경우, 착지 위치의 중심점을 구하는 방법을 설명하기 위한 도면이다.
도 7과 8은 본 발명의 일 실시예에 따라, 더미의 착지 위치와 목표 지점이 상이한 경우 무인 항공기의 물체 투하 위치를 계산하는 방법을 설명하기 위한 도면이다.
도 9는 무인 항공기와 상기 무인 항공기를 제어하는 컨트롤러의 블록구성도를 나타낸 도면이다.
도 10은 도 9에 따른 무인항공기와 상기 무인 항공기를 제어하는 컨트롤러의 신호흐름도를 도시한 도면이다.
FIGS. 1 and 2 are diagrams for explaining problems that may arise in a disaster accident structure using an unmanned aerial vehicle.
3 is a view for explaining a method of operating a dummy mounted on an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a diagram illustrating an operation of dropping a dummy to predict a landing point of an object dropped by an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 5 is a view for explaining an operation after a dummy is dropped to predict a landing point of an object dropped by an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 6 is a view for explaining a method of determining a center point of a landing position when landing positions of dummies are different according to an embodiment of the present invention.
FIGS. 7 and 8 are diagrams for explaining a method of calculating an object dropping position of an unmanned aerial vehicle when a landing position and a target point of a dummy are different, according to an embodiment of the present invention.
9 is a block diagram of a controller for controlling the UAV and the UAV.
FIG. 10 is a diagram illustrating a signal flow diagram of the unmanned air vehicle according to FIG. 9 and the controller for controlling the unmanned air vehicle.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

도 1과 2는 무인 항공기를 이용한 재난 사고 구조시 발생하는 문제를 설명하기 위한 도면이다.FIGS. 1 and 2 are views for explaining a problem occurring in a disaster accident structure using an unmanned aerial vehicle.

도 1과 2를 참조하여, 무인 항공기를 이용한 재난 사고 구조시 발생할 수 있는 문제를 자세하게 설명한다.Referring to FIGS. 1 and 2, a description will be given in detail of a problem that may occur in a disaster accident structure using an unmanned aerial vehicle.

무인 항공기(100)는 전기 배터리 분야의 기술 발전에 힘입어 소형 전기 모터를 이용한 쿼드콥터(quadcopter) 및 헥사콥터(hexacopter)를 비롯한 많은 형태의 무인항공기를 포함할 수 있다. 무인항공기는 소형으로 제작이 가능하며, 전기 모터를 이용하기 때문에 출력 조정이 용이하여 조작이 쉽기 때문에 그 이용 분야가 넓어지고 있다.The UAV 100 may include many types of UAVs, including quadcopters and hexacopters using small electric motors, due to technological advances in the field of electric batteries. Unmanned aerial vehicles can be manufactured in a small size, and electric motors are used.

이러한 무인 항공기(100)를 이용하여 재난 사고 발생시 초기 대응을 빠르게 하여 사고 피해의 확대를 막을 수 있다. 무인 항공기(100)는 원격으로 조절이 가능할 수 있다. 따라서 무인 항공기(100)를 통해 구조 용품을 구조 요청자(110)에게 전달할 수 있다면, 많은 구조 인력이 확보되지 않은 상황에서도 재난 사고에 발빠른 대응이 가능할 수 있다.By using the UAV 100, it is possible to speed up the initial response in case of a disaster, thereby preventing the accident from spreading. The UAV 100 may be remotely adjustable. Accordingly, if the rescue goods can be delivered to the rescue requester 110 through the UAV 100, it is possible to respond quickly to disasters even when a large number of rescue personnel are not secured.

무인 항공기(100)는 재난 사고 구조를 위해 구조 용품(2)을 실어 나를 수 있다. 이때 무인 항공기(100)는 구조 용품(2)을 무인 항공기(100)에 연결하여, 구조 요청 지역에 투하할 수 있도록 하는 연결부(1)를 더 포함할 수 있다.The unmanned airplane 100 can carry the structural article 2 for a disaster relief structure. At this time, the UAV 100 may further include a connection unit 1 for connecting the structural article 2 to the UAV 100 and allowing the UAV 100 to be dropped into the request area.

구조 용품(2)은 에어백이나 생필품, 각종 재난을 당한 사람이 필요한 물건을 포함할 수 있다. 구조 용품(2)은 구조 요청자(110)에게 전달 되는 과정에서 낙하산과 같이 모양이 변형되는 물건일 수 있다. 모양이 변형되는 물건인 경우, 무인 항공기(100)의 낙하 높이를 조절하는 구성을 무인 항공기(100)의 제어부가 더 포함할 수 있다.The structural article (2) may include an airbag, a necessity item, or a thing requiring a person suffering various disasters. The structural article 2 may be a deformable article such as a parachute in the process of being transmitted to the structural requestor 110. The control unit of the UAV 100 may further include a configuration for adjusting the drop height of the UAV 100 when the UAV 100 is deformed.

연결부(1)는 무인 항공기(100)와 구조 용품(2)을 자유롭게 탈부착 가능하도록 하는 구조를 포함한다. The connecting portion 1 includes a structure for freely detachably attaching the unmanned airplane 100 and the structural article 2.

도 2와 같이 구조 용품(2)이 구조 요청자(110)의 위도와 경도에 해당하는 해상 위의 공간에서 투하되었다고 하더라도, 해당 지역의 풍향의 세기와 방향, 파도에 의해 구조 요청자(110)에게 정확히 전달되지 못하게 된다. 만약 구조 용품(2)의 투하 지점과 구조 요청자(110)의 사이 거리(3)를 측정하여 사이 거리(3)만큼 이동시킨 지점에서 투하 된다면 구조 용품(2)이 구조 요청자(100)에게 도달할 가능성이 높아지게 된다.Even if the structural article 2 is dropped in a space above the sea corresponding to the latitude and longitude of the structural requestor 110 as shown in FIG. 2, the structural requester 110 can be accurately It will not be delivered. If the rescue goods 2 arrive at the rescue requester 100 if the distance 3 between the unloading point of the rescue equipment 2 and the rescue requester 110 is measured and dropped at the distance 3 distance The possibility increases.

또 다른 방식으로 도 2와 같은 문제를 해결하기 위해 무인 항공기(100)가 풍향의 세기와 방향, 지형의 경사도, 사고 지역의 파도 세기를 측정하는 방법을 사용할 수 있다.In another way, in order to solve the problem as shown in FIG. 2, the UAV 100 may measure the strength and direction of the wind direction, the inclination of the terrain, and the intensity of the waves in the accident area.

그러나 무인 항공기(100)는 소형 전기 모터를 이용하기 때문에 중량에 매우 민감하게 되고, 중량에 따라 속도 저하도 심하다. 따라서 도 2와 같이 사이 거리(3)를 줄이기 위해 무인 항공기(100)에 탑재되는 각종 센서는 제한 될 수 있다.However, the UAV 100 is very sensitive to weight because it uses a small electric motor, and the speed of the UAV 100 is considerably lowered by weight. Accordingly, as shown in FIG. 2, various sensors mounted on the UAV 100 may be limited to reduce the distance 3.

따라서 본원 발명은 무인 항공기(100)에 카메라(410)와 더미(320) 이용하여 물체의 투하시 착지 지점을 예측하고, 착지 지점이 구조 요청자(110)에게 도달할 수 있도록 무인 항공기(100)의 투하 위치를 결정하는 구성을 포함한다. 이하 본원 발명의 구성을 설명하도록 한다.Therefore, the present invention provides a method for predicting a landing point of an unmanned air vehicle 100 when the object is unloaded by using the camera 410 and the dummy 320, And determines a delivery position. Hereinafter, the configuration of the present invention will be described.

도 3은 본 발명의 일 실시예에 따라 무인 항공기(100)에 탑재되는 더미(320)의 작동 방식을 설명하기 위한 도면이다.3 is a view for explaining a method of operating the dummy 320 mounted on the UAV 100 according to an embodiment of the present invention.

도 3을 참조하면 본 발명의 일 실시예에 따른 무인 항공기(100)는 더미집(300), 더미(320), 더미 로더(310)를 포함할 수 있다.Referring to FIG. 3, the UAV 100 according to an embodiment of the present invention may include a dummy housing 300, a dummy 320, and a dummy loader 310.

본 발명의 일 실시예에 따른 무인 항공기(100)는 쿼드콥터(quadcopter) 또는 헥사콥터(hexacopter)를 포함할 수 있다. 헥사콥터는 수직으로 이륙이 가능하며, 공중에서 특정 지점에 머물 수 있기 때문에 항공 촬영에 유리할 수 있다.The UAV 100 according to an embodiment of the present invention may include a quadcopter or a hexacopter. Hexacopters can take off vertically and can be advantageous for aerial photography because they can stay at certain points in the air.

더미집(300)은 더미(320)를 포함하고, 한쪽 끝은 더미(320)가 더미 로더(310)에 의해 밀려서 배출 될 수 있도록 하는 배출구를 포함하고 있다. 더미집(300)의 한쪽 끝에는 더미 로더(310)가 더미집(300)의 더미(320)를 밀어 낼 수 있도록 움직일 수 있게 하는 구성을 포함하고 있다.The dummy housing 300 includes a dummy 320, and one end includes an outlet for allowing the dummy 320 to be pushed out by the dummy loader 310 to be discharged. At one end of the dummy housing 300, a dummy loader 310 can be moved so as to push out the dummy 320 of the dummy housing 300.

본 발명의 일 실시예에 따른 무인 항공기(100)는 더미(320)가 무유도의 방식으로 배출될 수 있다. 여기서 무유도 방식이란 환경 변화에 따라 낙하시 초기 속도에 영향을 주는 요소가 없이 일정한 힘으로 떨어지는 것을 의미한다. 따라서 더미(320)는 초기 배출 속도가 있다면, 동일한 속도로 배출 되도록 할 수 있다.In the UAV 100 according to an embodiment of the present invention, the dummy 320 may be discharged in a non-inductive manner. In this case, the non-inductive system means that, due to environmental changes, a drop is caused by a constant force without any factor affecting the initial speed. Thus, the dummy 320 can be discharged at the same rate if there is an initial discharge rate.

더미(320)는 무인 항공기(100)를 이용하여 전달할 구조 용품(2)과 달리 착지 위치 예측을 위해 여러 개의 더미(320)를 한번에 투하시킨다. 이 때, 일정한 속도로 더미(320)를 투하시키게 되면, 일정한 시간 간격에 따라 변화하는 풍향의 세기와 방향을 반영하여 착지 위치 예측이 가능하다. Unlike the structural article 2 to be delivered using the UAV 100, the dummy 320 drops several dams 320 at one time for landing position prediction. At this time, if the dummy 320 is dropped at a constant speed, the landing position can be predicted by reflecting the direction and direction of the changing wind direction at a predetermined time interval.

따라서 더미 로더(310)는 일정한 시간 간격에 따라 더미(320)에 가하는 힘을 일정하게 유지할 수 있다. 그러나 반대로 본원 발명의 다른 실시예에 따르면 더미 로더(310)는 고정되어 있고, 더미집(300)이 더미(320)의 투하 방향과 반대로 움직여 더미(320)가 더미집(300)의 배출구를 통해 투하될 수도 있다.Therefore, the dummy loader 310 can maintain a constant force applied to the dummy 320 at a constant time interval. In contrast, according to another embodiment of the present invention, the dummy loader 310 is fixed, and the dummy housing 300 moves in the direction opposite to the direction of the dummy load 320, It may be dropped.

본원 발명의 일 실시예에 따른 더미(320)는 더미 로더(310)에 의해 가해진 힘에 의해 더미 로더(310)가 가하는 힘의 방향으로 배출 되며, 더미 로더(310)로부터 멀리 위치한 더미(320)부터 배출 된다.The dummy 320 according to an embodiment of the present invention is discharged in the direction of the force applied by the dummy loader 310 by the force applied by the dummy loader 310 and is discharged to the dummy 320 located away from the dummy loader 310. [ .

더미(320)는 구조 용품(2)과 유사한 질량, 밀도, 부피, 형상을 가진 것을 사용할 수 있다. 따라서 더미(320)의 모양이 반드시 원형에 한정되는 것은 아니다. 더미(320)의 표면에는 형광 물질을 발라서 더미의 투하 위치를 촬영한 이미지로부터 더미를 추출하는데 있어서 효율성을 높일 수 있다. 더미(320)는 더미집(300)으로부터 더미(320)보다 좁은 배출구를 통해 배출 되어도 본래의 형상을 유지할 수 있도록 일정한 탄성을 가진 물질로 만들 수 있다.The dummy 320 may have a mass, density, volume, and shape similar to those of the structural article 2. Therefore, the shape of the dummy 320 is not necessarily limited to a circle. The fluorescent material may be applied to the surface of the dummy 320 to increase the efficiency in extracting the dummy from the captured image of the discharge position of the dummy. The dummy 320 may be made of a material having a certain elasticity so as to maintain the original shape even if the dummy 320 is discharged from the dummy housing 300 through a discharge port that is narrower than the dummy 320.

더미집(300)이 무인 항공기(100)에 탑재될 때에는 도 3과 같이 가로로 배치되어 포물선 모양을 그리며 투하될 수 있을 뿐 아니라 수평면에 대해 수직으로 배치되어 수직 낙하 하도록 설계할 수 있다. 다만 본 발명이 이에 한정되는 것은 아니다.When the dummy housing 300 is mounted on the UAV 100, the dummy housing 300 can be arranged to be horizontally disposed as shown in FIG. 3, to be dropped in a parabolic shape, and to be vertically disposed with respect to a horizontal plane. However, the present invention is not limited thereto.

도 4는 본 발명의 일 실시예에 따라 무인 항공기(100)에서 투하한 물체의 착지 지점을 예측하기 위해 더미(320)를 투하하는 동작을 나타낸 도면이다.4 is a diagram illustrating an operation of dropping the dummy 320 to predict a landing point of an object dropped by the UAV 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)는 카메라부(410)와 더미 투하부(400)를 포함할 수 있다.An apparatus 440 for predicting a landing position of an object dropped by the UAV 100 according to an exemplary embodiment of the present invention may include a camera unit 410 and a dummy drop unit 400.

카메라부(410)는 CCD나 CMOS 등의 이미지 센서를 주요 부품으로 하여 제작할 수 있다. 카메라부(410)는 상기 이미지 센서를 통해 사물의 이미지를 집광시켜 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440) 내 메모리상에 데이터로 저장할 수 있다. 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)는 상기 저장된 데이터를 무인 항공기(100)를 제어하는 컨트롤러에 송신할 수 있다.The camera unit 410 can be manufactured by using an image sensor such as CCD or CMOS as a main component. The camera unit 410 may store the image of the object on the memory in the device 440 for estimating the landing position of the object dropped by the UAV 100 by condensing the image of the object through the image sensor. The device 440 for predicting the landing position of the object dropped by the UAV 100 may transmit the stored data to the controller for controlling the UAV 100. [

카메라부(410)는 도 4와 같이 무인 항공기(100) 하부에 부착되어 수면 위에 투하된 더미(320)를 촬영하도록 탑재시킬 수 있다. 보다 자세하게는 카메라부(410)는 상하 좌우로 회전이 가능하도록 설계하여 더미(320)가 포착된 정지 영상을 촬영하도록 하는 것이 바람직하다.The camera unit 410 may be mounted on the underside of the UAV 100 to photograph the dummy 320 dropped on the water surface as shown in FIG. More specifically, it is preferable that the camera unit 410 is designed to be rotatable up, down, left, and right so that the still image captured by the dummy 320 is captured.

더미 투하부(400)는 도 4와 같이 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)의 측면에 배치 될 수도 있고 카메라부(410)와 동일한 방향으로 하부에 배치될 수도 있다. 다만 더미 투하부(400)는 무인 항공기(100)에서 투하시킬 구조 용품(2)의 투하부와 동일한 방향으로 배치되는 것이 바람직하다.4, the dummy drop unit 400 may be disposed on the side of the device 440 for predicting the landing position of the object dropped by the UAV 100 and may be disposed on the lower side in the same direction as the camera unit 410 It is possible. However, it is preferable that the dummy dropping unit 400 is disposed in the same direction as the dropping portion of the structural article 2 to be unloaded from the UAV 100.

도 5는 본 발명의 일 실시예에 따라 무인 항공기에서 투하한 물체의 착지 지점을 예측하기 위해 더미를 투하한 후의 동작을 설명하기 위한 도면이다.FIG. 5 is a view for explaining an operation after a dummy is dropped to predict a landing point of an object dropped by an unmanned aerial vehicle according to an embodiment of the present invention.

도 5를 참조하면 도 4에 의한 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)에 의해 투하된 더미(320)가 구조 요청자(110) 부근에 착지되어 있다.Referring to FIG. 5, a dummy 320 dropped by an apparatus 440 for predicting a landing position of an object dropped by the UAV 100 according to FIG. 4 is landed near the structure requestor 110.

무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)는 착지된 더미(320)의 정지 영상을 촬영한다. 상기 정지 영상은 더미(320)가 모두 투하된 후에 촬영될 수도 있고, 더미(320) 1개가 투하 될 때마다 촬영할 수도 있다.An apparatus 440 for predicting a landing position of an object dropped by the UAV 100 shoots a still image of the landed dummy 320. The still image may be photographed after all the dummy 320 is dropped, or may be photographed every time one dummy 320 is dropped.

도 5와 같이 더미(320)가 다수 투하되어 착지되어 있는 상태를 촬영한 정지 영상의 경우 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 방법으로 통계적인 군집화 이론을 사용할 수 있다. 투하된 더미(320)의 위치를 사전 확률 분포로 깁스 샘플러(Gibbs Sampler) 알고리즘을 적용시켜 추출된 깁스 표본으로부터 사후 확률을 추정하여 향후 투하시킬 물체의 착지 위치를 예측할 수 있다.As shown in FIG. 5, the statistical clustering theory can be used as a method of predicting the landing position of an object dropped by the UAV 100 in the case of a still image of a state where a large number of dummies 320 are dropped and landed. The position of the object to be dropped can be predicted in the future by estimating the posterior probability from the extracted Gibbs sample by applying the Gibbs Sampler algorithm to the position of the dropped dummy 320 with a prior probability distribution.

반면에 더미(320)가 투하 될 때마다 정지 영상을 촬영하게 되는 경우, 동일한 위치에서 동일한 초기 속도로 투하된 더미(320)의 이동 방향으로부터 풍향의 세기 및 방향을 함께 고려한 투하시킬 물체의 착지 위치를 예측 할 수 있게 된다.On the other hand, when the still image is taken every time the dummy 320 is dropped, the landing position of the object to be unloaded considering the direction and direction of the wind direction from the moving direction of the dummy 320 dropped at the same initial velocity at the same position . ≪ / RTI >

도 5와 같이 비나 바람에 의해 구조 요청자(100)에게 구조 용품(2) 전달이 어려운 경우 예측된 물체의 착지 위치와 구조 요청자(110) 사이 거리(3)는 최소화 시키도록 한다. 따라서 오차 허용 범위를 낮추기 위해 본원 발명에 따른 무인 항공기(100)에서 투하한 물체의 착지 위치를 예측하는 장치(440)는 무인 항공기(100)의 위치를 이동한 후 반복하여 더미 투하를 시킬 수 있다.As shown in FIG. 5, when it is difficult to deliver the structural article 2 to the structural requestor 100 by rain or wind, the distance 3 between the landed position of the predicted object and the structural requestor 110 is minimized. Therefore, in order to lower the error tolerance range, the device 440 for predicting the landing position of the object dropped by the UAV 100 according to the present invention may repeat the dummy drop after moving the position of the UAV 100 .

도 6은 본 발명의 일 실시예에 따라 투하된 더미들의 착지 위치가 서로 다른 경우, 착지 위치의 중심점을 구하는 방법을 설명하기 위한 도면이다.FIG. 6 is a view for explaining a method of determining a center point of a landing position when landing positions of dummies are different according to an embodiment of the present invention.

카메라부(410)가 촬영한 영상으로부터 도 6과 같이 더미(320) 이미지 만을 추출할 수 있다. 도 6의 더미(320) 이미지를 추출한 형상은 실제 더미(320)의 형상과 달리 원형으로 나타낼 수 있으며, 실제 더미(320)의 크기보다 더 크게 나타낼 수 있다. 이는 구조 용품(2)과 같은 물체가 투하되어 착지한 위치가 목표 지점과 동일하지 않더라도, 착지 위치에서 일정한 반경 내에 구조 요청자(110)가 위치할 때, 구조 활동이 가능하기 때문이다.Only the image of the dummy 320 can be extracted from the image captured by the camera unit 410 as shown in FIG. The shape extracted from the image of the dummy 320 of FIG. 6 may be circular rather than the shape of the actual dummy 320, and may be larger than the size of the actual dummy 320. This is because the rescue operation is possible when the rescue requester 110 is located within a certain radius in the landing position even if the landed position of the object such as the rescue article 2 is not equal to the target point.

더미(320) 이미지를 추출하여 생성한 원이 포개져 만들어진 도형의 양 끝점을 잇는 선분의 중심(600)을 잇는다. 선분의 중심(600)을 이어 만들어진 도형(610) 내부에 각 꼭지점(600)으로부터 거리가 동일한 중앙점(620)을 쉽게 찾을 수 있다.The dummy 320 image is extracted and connected to the center 600 of the line segment connecting the end points of the created figure. The center point 620 having the same distance from each vertex 600 can be easily found in the figure 610 formed by connecting the center 600 of the line segment.

상기 중앙점(620)이 구조 요청자(110)와의 거리가 상기 더미(320)의 착지 위치로부터 원을 그릴 때 사용했던 일정 반경보다 작다면, 더미(320)를 투하시킨 위치에서 구조 용품(2)을 투하시켜도 구조 요청자(110)에게 전달이 가능하게 된다. 따라서 무인 항공기(100)는 상기 위치에서 목적 물체인 구조 용품(2)을 투하시킬 수 있다.If the center point 620 is smaller than a certain radius used when drawing the circle from the landing position of the dummy 320, It is possible to deliver it to the resident requester 110. [ Accordingly, the UAV 100 can drop the structural article 2, which is a target object, at the above position.

반면에 상기 중앙점(620)이 구조 요청자(110)와의 거리가 상기 더미(320)의 착지 위치로부터 원을 그릴 때 사용했던 일정 반경보다 크다면, 무인 항공기(100)의 위치를 재조정하여 더미(320) 투하를 반복할 수 있다.On the other hand, if the center point 620 is larger than a certain radius used when drawing the circle from the landing position of the dummy 320, the position of the UAV 100 may be re- 320) can be repeated.

재난 구조 지역이 도 5와 같이 환경적인 변수가 많은 상황이라면, 상기 일정 반경은 작게 설정할 수 있다. 이는 구조 요청자(110)에게 보다 정확히 구조 용품(2)이 착지될 필요가 있기 때문이다.If the disaster rescue area has a large number of environmental variables as shown in FIG. 5, the predetermined radius can be set small. This is because the structural object 2 needs to be landed more accurately to the rescue requester 110.

도 7과 8은 본 발명의 일 실시예에 따라, 더미(320)의 착지 위치와 목표 지점이 상이한 경우 무인 항공기(100)의 물체 투하 위치를 계산하는 방법을 설명하기 위한 도면이다.7 and 8 are views for explaining a method of calculating the object drop position of the UAV 100 when the landing position and the target point of the dummy 320 are different according to an embodiment of the present invention.

무인 항공기(100)에서 투하된 더미(320)들의 착지 위치의 중앙점(620)을 지나는 선분 중 무인항공기(100)에서 표면으로 수직하게 내린 수직점(700)을 통과하는 선분을 찾을 수 있다. 상기 찾은 선분을 밑변으로 하고, 무인 항공기(100)와 수직점(700)을 잇는 선분을 이등분선으로 하는 이등변삼각형(710)을 그릴 수 있다. 상기 이등변삼각형(720)의 무인 항공기(100)쪽 꼭지점에서 중앙점(620)을 잇는 선분(720)을 도시할 수 있다. 이때 수직점(700)을 잇는 선분과 중앙점을 잇는 선분(720) 사이의 각도인 a값을 측정할 수 있다.It is possible to find a line segment passing through the vertical point 700 vertically lowered from the UAV 100 to the surface among the line segments passing through the midpoint 620 of the landing position of the dummy 320 released from the UAV 100. An isosceles triangle 710 having a bisected line segment connecting the UAV 100 and the vertical point 700 can be drawn using the found line segment as a base line. A line segment 720 connecting the center point 620 from the vertex of the isosceles triangle 720 toward the UAV 100 may be shown. At this time, the value a, which is the angle between the line segment connecting the vertical point 700 and the line segment 720 connecting the center point, can be measured.

외부 환경적인 변수가 작용하지 않는다면 무인 항공기(100)에서 투하된 더미는 수직점(700)에 도달하여야 한다. 그러나 풍향의 세기 및 방향, 지형적인 요인 등에 의해 무인 항공기(100)에서 자유 낙하한 더미(320)들은 수직점(700)에 도달하지 못하고 수직점(700)에서 a값 만큼 기울어진 중앙점(620)에 떨어지는 것으로 예측된다.If the external environmental variables do not work, the dummy released from the UAV 100 must reach the vertical point 700. However, the dams 320 that have fallen free from the UAV 100 due to the direction and direction of the wind direction, geographical factors, etc. may not reach the vertical point 700 and may be inclined to the center point 620 ).

이 때, 구조 요청자(110)가 수직점(700)에 위치하고 있다면, 상기와 같은 위치에서 무인 항공기(100)가 구조 용품(2)을 투하하게 되면, 구조 요청자(110)에게 도달하지 못할 것으로 예측되게 된다. 따라서 도 8과 같이 무인 항공기(100)의 위치를 이동시킬 필요가 있다.At this time, if the rescue requester 110 is located at the vertical point 700, it is predicted that the UAV 100 will not reach the rescue requester 110 when the UAV 100 drops the rescue item 2 . Therefore, it is necessary to move the position of the UAV 100 as shown in FIG.

도 8에 도시된 바와 같이 무인 항공기(100)는 구조 요청자가 700a에 위치하고 있다면, 투하 물체가 700a 지점에 착지 될 수 있는 무인 항공기(100)의 투하 지점을 탐색해야 한다.As shown in FIG. 8, if the unmanned airplane 100 is located at the rescue requester 700a, the unloading object should search for the dropping point of the unmanned airplane 100, which can be landed at the point 700a.

탐색하는 방법은 상기 측정한 a값의 기울기를 가진 720a 선분과 평행하면서 목표 지점인 700a를 지나는 선분인 720b를 도시할 수 있다. 720b의 위치를 이전 더미를 투하시킨 무인 항공기(100)의 경도와 위도로부터 구할 수 있다. 무인 항공기(100)는 동일한 높이의 위치를 유지하면서, 상기 구한 경도와 위도로 무인 항공기(100)의 위치를 이동시킬 수 있다.The searching method may be a line segment 720b which is parallel to the 720a line segment having the slope of the measured a value and passes through the target point 700a. 720b can be obtained from the longitude and latitude of the unmanned airplane 100 that dropped the previous dummy. The UAV 100 can move the position of the UAV 100 with the obtained hardness and latitude while maintaining the same height.

도 8에서와 같이 이동된 무인 항공기(100)의 위치에서 투하시킨다면 투하 물체가 목표 지점인 700a 지점에 착지할 확률이 도 7의 무인 항공기(100)의 위치에서 물체를 투하시키는 것보다 다소 높게 된다.8, the probability of landing the dropped object at the target point 700a is somewhat higher than that at which the object is dropped at the position of the UAV 100 in FIG. 7 .

도 9는 본 발명의 일 실시예에 따른 무인 항공기(100)와 상기 무인 항공기를 제어하는 컨트롤러(900)의 블록구성도를 나타낸 도면이다.FIG. 9 is a block diagram of a controller for controlling the UAV and the UAV according to an embodiment of the present invention. Referring to FIG.

컨트롤러(900)는 제1 통신부(910), 이미지 추출부(920), 낙하위치 예측부(930), 비행 제어부(940)를 포함할 수 있다.The controller 900 may include a first communication unit 910, an image extraction unit 920, a drop position predicting unit 930, and a flight control unit 940.

무인 항공기(100)는 제2 통신부(950), UAV 제어부(960), 더미 투하부(970), 카메라부(980)를 포함할 수 있다.The UAV 100 may include a second communication unit 950, a UAV control unit 960, a dummy drop unit 970, and a camera unit 980.

제1 통신부(910)와 제2 통신부(950)는 상호 통신이 가능한 프로토콜로 구성되어야 한다. 제1 통신부(910)와 제2 통신부(950)는 WiFi, 블루투스(Bluetooth), 3G, LTE(Long Term Evolution) 또는 LET-A 중에서 어느 하나의 통신 방식을 이용할 수 있다.The first communication unit 910 and the second communication unit 950 should be configured to communicate with each other. The first communication unit 910 and the second communication unit 950 can use any one of WiFi, Bluetooth, 3G, Long Term Evolution (LTE) or LET-A.

이미지 추출부(920)는 무인 항공기(100)로부터 제공받은 정지 영상으로부터 특징점 만을 추출할 수 있다. 이때 영상 내의 특징 정보인 컬러(Color), 질감(Texture), 형태(Shape)등을 이용하여 추출할 수 있고, 이를 이용하여 검색을 수행할 수 있다. 이러한 소프트웨어로 VisualSeek, QBIC 등을 사용할 수 있다.The image extracting unit 920 can extract only the feature points from the still image provided from the UAV 100. [ At this time, the image can be extracted using color, texture, shape, and the like, which are feature information in the image, and the search can be performed using the extracted information. Such software can use VisualSeek, QBIC, etc.

낙하 위치 예측부(930)는 본 발명의 도 7 내지 8에서 도시한 알고리즘을 사용하여 낙하 위치를 예측할 수 있다. 본 발명의 다른 실시예와 같이 더미(320)가 투하될 때마다 정지 영상을 촬영하게 된다면, 낙하 위치 예측부(930)는 투하된 더미의 낙하 위치를 사전 확률 분포로 하여 깁스 샘플러(Gibbs Sampler) 알고리즘 등을 적용시켜 추출된 깁스 표본으로부터 사후 확률을 추정하여 향후 투하시킬 물체의 착지 위치를 예측할 수 있다.The falling position predicting unit 930 can predict the drop position using the algorithm shown in Figs. 7 to 8 of the present invention. If the still image is photographed every time the dummy 320 is dropped as in the other embodiment of the present invention, the falling position predicting unit 930 estimates the drop position of the dropped dummy as a prior probability distribution and outputs the Gibbs sampler, Algorithm, etc., it is possible to predict the landing position of the object to be dropped in the future by estimating the posterior probability from the extracted cast sample.

비행 제어부(940)는 낙하 위치 예측부(930)로부터 계산된 낙하 위치가 목표 지점에 낙하하기 위한 투하 지점을 제공받을 수 있다. 비행 제어부(940)는 상기 제공받은 투하 지점으로 무인 항공기(100)를 이동시킬 수 있다.The flight control unit 940 may be provided with a dropping point for dropping the drop position calculated by the fall position prediction unit 930 to the target spot. The flight control unit 940 can move the UAV 100 to the provided dropping point.

또한 비행 제어부(940)는 낙하 위치 예측부(930)로부터 더미 투하가 목표 지점에 도달하는 것으로 판단된 경우, 무인 항공기(100)로 구조 용품(2)과 같은 물체를 투하하도록 명령할 수 있다.The flight control unit 940 can instruct the unmanned airplane 100 to drop an object such as the structural article 2 when it is determined that the dummy dropping has reached the target point from the drop position predicting unit 930. [

UAV 제어부(960)는 비행 제어부(940)로부터 제어된 무인 항공기(100)의 이동 위치로 무인 항공기(100)를 이동시킬 수 있다. UAV 제어부(960)는 각 프로펠러 및 방향 조절 장치를 제어하여 무인 항공기(100)의 수평 균형을 유지하고, 이동 방향을 제어할 수 있다.The UAV control unit 960 can move the UAV 100 to the moving position of the UAV 100 controlled by the flight control unit 940. [ The UAV control unit 960 controls each propeller and the direction adjusting device to maintain the horizontal balance of the UAV 100 and to control the moving direction.

더미 투하부(970)는 더미 로더(310)와 더미집(300)을 통해 더미(320)들을 투하시킬 수 있다. The dummy drop-off portion 970 can drop the dummy 320 through the dummy loader 310 and the dummy house 300.

카메라부(980)는 투하된 더미들이 착지하게 되면, 착지 위치를 나타내는 정지 영상을 생성하고, 저장한 뒤, 컨트롤러(900)의 이미지 추출부(920)로 제공할 수 있다.When the dropped dummies are landed, the camera unit 980 generates a still image representing the landing position, stores the still image, and provides the still image to the image extracting unit 920 of the controller 900.

도 10은 본 발명의 일 실시예에 따른 무인 항공기(100)와 컨트롤러(900)의 신호흐름도를 도시한 것이다.FIG. 10 is a signal flow diagram of the UAV 100 and the controller 900 according to an embodiment of the present invention.

컨트롤러(900)의 비행 제어부(940)는 재난 발생 지역의 위치를 입력하여 무인 항공기(100)를 재난 발생 지역으로 이동하도록 할 수 있다(S1000). 상기 위치는 위도와 경도 등으로 입력할 수 있으며, 이때 무인 항공기(100)는 GPS를 포함할 수 있다. 만약 위도와 경도가 아니라 목표 지점을 출발 지점을 0점으로 한 x축, y축의 좌표계로 나타낸다면, 이동 거리 측정 장치를 포함할 수 있다.The flight control unit 940 of the controller 900 may input the location of the disaster area and move the unmanned airplane 100 to the disaster area (S1000). The location may be entered with latitude and longitude, etc. At this time, the UAV 100 may include GPS. If the target point is not the latitude and the longitude but is represented by the coordinate system of the x-axis and the y-axis with the starting point at zero point, it may include a moving distance measuring device.

무인 항공기(100)가 목표 지점 근처에 도착하였다고 판단하였다면(S1010), 상기 위치에서 더미(320)를 투하시킨다(S1020). 더미(320)가 지표면이나 수면에 착지하게 되면, 상기 투하된 더미(320)들의 착지 위치와 구조 요청자(110)와 같은 목표물이 함께 나타난 정지 영상을 촬영한다(S1030). 상기 정지 영상은 컨트롤러(900)로 송신한다(S1040).If it is determined that the UAV 100 has arrived near the target point (S1010), the dummy 320 is dropped from the position (S1020). When the dummy 320 is landed on the ground surface or the water surface, a still image in which the landed position of the dummy 320 is released and a target such as the rescue requester 110 are displayed together (S1030). The still image is transmitted to the controller 900 (S1040).

컨트롤러(900)는 상기 전송받은 이미지로부터 더미(320)만을 추출할 수 있다(S1050). 더미(320)의 중심을 원점하고 일정한 반지름을 갖는 원반경을 도 6과 같이 도시할 수 있다(S1060). 상기 원반경은 물체가 착지하였을 때 구조 요청자(110)에게 상기 물체가 도달 가능한 한계 구역을 의미한다. The controller 900 may extract only the dummy 320 from the received image (S1050). A circular radius having a predetermined radius at the center of the dummy 320 can be shown in FIG. 6 (S1060). The circle radius means a limit zone in which the object can reach the rescue requester 110 when the object landed.

상기 원으로부터 겹쳐지는 두 점을 이어 선분을 만들고 그 선분의 중심을 꼭지점(600)으로 하는 도형(610)을 생성할 수 있다(S1070). 도형(610)으로부터 도형(610)의 각 꼭지점(600)에 이르는 거리가 동일한 한 중심점(620)을 계산할 수 있다(S1080).A figure 610 may be generated in which a line segment is formed by connecting two points overlapping from the circle and the center of the line segment is a vertex 600 (S1070). A center point 620 having the same distance from the graphic form 610 to each vertex 600 of the graphic form 610 can be calculated (S1080).

상기 중심점(620)을 중심으로 한 상기 원반경 내에 목표 지점(700a)이 있는지 판단한다(S1090). 만약 목표 지점에 투하 된 것으로 판단된다면(S1090, S1120), 컨트롤러(900)의 비행 제어부(940)는 해양 사고 시에 무인 항공기(100)에 대하여 에어백과 같은 구조 용품(2)을 투하하라고 명령할 수 있다(S1120).It is determined whether the target point 700a exists within the radius of the circle around the center point 620 (S1090). If it is determined that the airplane has been dropped at the target point (S1090, S1120), the flight control section 940 of the controller 900 instructs the unmanned airplane 100 to drop the structural article 2 such as an air bag at the time of a marine accident (S1120).

반면에 더미(320)가 목표 지점에 도달하지 못한 것으로 판단된 경우(S1090, S1100), 낙하 위치 예측부(930)는 무인 항공기(100)의 투하 지점을 계산하여 무인 항공기(100)의 이동 위치를 정한다. 상기 이동 위치는 무인 항공기(100)로 송신되고(S1110), UAV 제어부(960)는 상기 이동 위치로 무인 항공기(100)를 이동 시킨다(S1130). 이동된 위치에서 무인 항공기(100)는 더미 투하를 위한 과정을 반복 하기 위하여 S1020 단계를 다시 실행하게 된다.If it is determined that the dummy 320 has not reached the target point (S1090, S1100), the drop position predicting unit 930 calculates the drop point of the UAV 100 and calculates the drop position of the UAV 100 . The movement position is transmitted to the UAV 100 in operation S1110, and the UAV controller 960 moves the UAV 100 to the movement position in operation S1130. At the shifted position, the UAV 100 executes step S1020 again to repeat the process for dummy delivery.

만약, 에어백 투하 명령(S1120)에 의해 물체를 투하시키게 되었다면, 무인 항공기(100)는 더 이상 더미(320) 투하 알고리즘을 반복하지 않고 상기 알고리즘을 종료한다.If the object is dropped by the airbag drop command S1120, the UAV 100 no longer repeats the dummy 320 drop algorithm and terminates the algorithm.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

무인항공기 100
더미 320
무인 항공기에서 투하하는 물체의 착지 위치 예측 장치 440
컨트롤러 900
Unmanned aircraft 100
Dummy 320
Apparatus for predicting landing position of an object to be dropped from a UAV 440
The controller 900

Claims (11)

무인 항공기로부터 수신한 영상 정보를 이용하여 상기 무인 항공기에서 투하된 더미의 이미지를 추출하는 이미지 추출부; 및
상기 이미지 추출부로부터 제공된 더미의 이미지의 중심을 원점으로 하여 원을 그리고, 상기 원이 복수개인 경우, 복수개의 원이 겹쳐져 만나는 점을 연결하는 선분을 생성하고, 상기 선분의 중심을 연결하여 도형을 생성하고, 상기 생성된 도형 내부에 상기 선분의 중심까지의 거리가 동일한 중심점을 찾고, 상기 중심점을 기초로, 상기 무인 항공기에서 물체를 투하하기 위한 투하 지점을 산정하고, 상기 물체가 목표 지점에 도달하기 위한 상기 무인 항공기의 이동 위치를 계산하는 낙하 위치 예측부;
를 포함하는,
무인 항공기 조절 장치.
An image extracting unit for extracting an image of a dummy dropped from the unmanned airplane using image information received from the unmanned airplane; And
A circle is formed with the center of the image of the dummy provided from the image extracting unit as an origin, and when a plurality of the circles are present, a line connecting the points where the circles overlap each other is generated, And calculating a dropping point for dropping the object on the basis of the center point, and calculating a dropping point for dropping the object on the basis of the center point, A falling position predicting unit for calculating a moving position of the UAV;
/ RTI >
Unmanned aircraft control system.
삭제delete 제1항에 있어서,
상기 무인 항공기 조절 장치는,
상기 중심점이 목표 지점으로부터 일정 반경 내에 도달할 경우, 상기 무인 항공기로 물체에 대한 투하 명령을 하고,
상기 중심점이 목표 지점으로부터 일정 반경 내에 도달하지 못한 경우, 상기 낙하 위치 예측부에서 계산한 상기 무인 항공기 이동 위치에서 다시 더미를 투하시키는 것을 반복하도록 제어하는 비행 제어부 구성을 더 포함하는,
무인 항공기 조절 장치.
The method according to claim 1,
The unmanned aerial vehicle control device includes:
When the center point reaches a certain radius from the target point, the unmanned airplane makes a drop command for an object,
Further comprising a flight control section for repeatedly releasing the dummy again at the unmanned airplane moving position calculated by the falling position predicting section when the center point does not reach within a certain radius from the target point.
Unmanned aircraft control system.
적어도 하나 이상의 더미를 투하하는 더미 투하부;
상기 투하된 더미와 목표물을 함께 담은 영상을 촬영하는 카메라부; 및
상기 영상으로부터 상기 투하된 더미의 이미지를 추출하고, 상기 추출된 더미의 이미지의 중심을 원점으로 하여 원을 그리고, 상기 원이 복수개인 경우, 복수개의 원이 겹쳐져 만나는 점을 연결하는 선분을 생성하고, 상기 선분의 중심을 연결하여 도형을 생성하고, 상기 생성된 도형 내부에 상기 선분의 중심까지의 거리가 동일한 중심점을 찾고, 상기 중심점 및 상기 촬영된 목표물을 기초로, 물체를 투하할 지점을 산정하고, 상기 산정된 투하할 지점에 대한 정보를 기초로, 무인 항공기를 이동시키는 UAV 제어부를 포함하되, 상기 중심점이 목표물로부터 일정 반경 내에 도달할 경우, 상기 물체를 투하시키는,
물체를 투하시키는 무인 항공기.
A dummy drop portion dropping at least one dummy;
A camera unit for capturing an image containing the dropped dummy and the target together; And
Extracts the image of the dropped dummy from the image, generates a circle with the center of the extracted dummy image as an origin, and creates a line connecting the points where the plurality of circles overlap each other when the circle has a plurality of circles A center point of the line segment is calculated, a center point of the line segment is found, and a point of dropping the object is calculated based on the center point and the captured target point And a UAV control unit for moving an unmanned airplane based on the calculated information about a dropping point, wherein, when the center point reaches within a certain radius from the target,
Unmanned airplanes that drop objects.
제 4항에 있어서,
상기 더미 투하부는 복수개의 더미를 투하할 경우, 일정한 속도로 상기 더미들을 투하시키도록 하는 물체를 투하시키는 무인 항공기.
5. The method of claim 4,
Wherein the dummy dropping portion drops an object for dropping the dummy at a constant speed when dropping a plurality of dummy.
무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법에 있어서,
목표 지점 부근에서 적어도 하나 이상의 더미를 투하시키는 단계;
상기 투하된 더미와 목표 지점이 나타나도록 정지 영상을 촬영하는 단계;
상기 정지 영상으로부터 상기 더미의 이미지를 추출하는 단계;
상기 추출된 더미의 이미지의 중심을 원점으로 하여 원을 그리는 단계;
상기 원이 복수개인 경우, 복수개의 원이 겹쳐져 만나는 점을 연결하는 선분을 생성하는 단계;
상기 선분의 중심을 연결하여 도형을 생성하는 단계;
상기 생성된 도형 내부에 상기 선분의 중심까지의 거리가 동일한 중심점을 찾는 단계;
상기 중심점 및 상기 목표 지점을 기초로, 상기 물체를 투하할 지점을 산정하는 단계;
상기 산정된 투하할 지점에 대한 정보를 기초로, 상기 무인 항공기가 이동하는 단계; 및
상기 물체를 투하할 지점으로 이동한 상기 무인 항공기가 상기 물체를 투하시키는 단계를 포함하는,
무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법.
A method for delivering an object to a target location using an unmanned aircraft,
Dropping at least one dummy near the target point;
Photographing a still image such that the dummy and the target point are displayed;
Extracting an image of the dummy from the still image;
Drawing a circle with the center of the extracted image of the dummy as an origin;
Generating a line segment connecting points where a plurality of circles overlap each other when the circles are plural;
Connecting the centers of the line segments to generate a figure;
Finding a center point having a distance to the center of the segment within the generated figure;
Calculating a point to drop the object based on the center point and the target point;
Moving the unmanned airplane based on the calculated information about a dropping point; And
Wherein the unmanned airplane, which has moved to a point at which the object is to be dropped,
A method for delivering an object to a target location using an unmanned aircraft.
제6항에 있어서,
상기 무인 항공기가 이동하는 단계는,
상기 무인 항공기가 이동한 후,상기 더미를 투하하는 단계부터 상기 무인 항공기가 이동하는 단계까지 반복하여 실행하는 단계를 포함하는,
무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법.
The method according to claim 6,
Wherein the moving of the unmanned aerial vehicle comprises:
Repeating the step of dropping the dummy to the step of moving the unmanned airplane after the unmanned airplane moves.
A method for delivering an object to a target location using an unmanned aircraft.
제7항에 있어서,
상기 무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법은,
상기 투하한 더미가 목표 지점에 투하된 경우,
상기 투하 위치에서 물체를 투하시키는 단계를 더 포함하는,
무인 항공기를 이용하여 물체를 목표 지점에 투하시키기 위한 방법.
8. The method of claim 7,
A method for dropping an object to a target point using the unmanned air vehicle,
When the dropped dummy is dropped at a target point,
Further comprising dropping an object at said dropping position.
A method for delivering an object to a target location using an unmanned aircraft.
물체의 착지 위치 예측 장치가,
적어도 하나 이상의 더미와 목표 지점이 담긴 영상을 수신하는 단계;
상기 영상으로부터 상기 더미 이미지를 추출하는 단계;
상기 추출된 더미 이미지의 중심을 원점으로 하여 원을 그리는 단계;
상기 원이 복수개인 경우, 복수개의 원이 겹쳐져 만나는 점을 연결하는 선분을 생성하는 단계;
상기 선분의 중심을 연결하여 도형을 생성하는 단계;
상기 생성된 도형 내부에 상기 선분의 중심까지의 거리가 동일한 중심점을 찾는 단계;
상기 중심점 및 상기 목표 지점을 기초로, 상기 물체를 투하할 지점을 산정하는 단계; 및
상기 투하할 지점에 대한 정보를 무인 항공기를 제어하는 콘트롤러에 송신하는 단계를 포함하는,
무인 항공기를 제어하여 물체를 목표 지점에 투하하기 위한 투하 지점을 산정하는 방법.
An apparatus for estimating a landing position of an object,
Receiving an image including at least one dummy and a target point;
Extracting the dummy image from the image;
Drawing a circle with the center of the extracted dummy image as an origin;
Generating a line segment connecting points where a plurality of circles overlap each other when the circles are plural;
Connecting the centers of the line segments to generate a figure;
Finding a center point having a distance to the center of the segment within the generated figure;
Calculating a point to drop the object based on the center point and the target point; And
And transmitting information on the point to be released to a controller that controls the unmanned aerial vehicle,
A method of controlling the unmanned airplane to calculate a dropping point for dropping an object to a target point.
삭제delete 제9항에 있어서,
상기 물체를 투하할 지점을 산정하는 단계는,
상기 중심점이 목표 지점으로부터 일정 반경 이내에 위치하는지 판단하는 단계;
상기 중심점이 목표 지점으로부터 일정 반경 이내에 위치하는 것이 아니라면, 상기 투하할 지점과 상기 중심점 사이의 각도를 이용하여 목표 지점에 상기 더미가 투하되기 위한 투하할 지점을 재산정하는 단계; 및
상기 재산정된 투하할 지점을 상기 무인 항공기를 제어하는 콘트롤러에 송신하는 단계를 포함하는,
무인 항공기를 제어하여 물체를 목표 지점에 투하하기 위한 투하 지점을 산정하는 방법.
10. The method of claim 9,
The step of estimating the point at which the object is dropped may include:
Determining whether the center point is within a certain radius from the target point;
If the center point is not located within a certain radius from the target point, using the angle between the dropping point and the center point to re-entrust the drop point for dropping the dummy at the target point; And
And transmitting the registered point to be dropped to a controller that controls the unmanned airplane,
A method of controlling the unmanned airplane to calculate a dropping point for dropping an object to a target point.
KR1020140142697A 2014-10-21 2014-10-21 Estimation method and equipment of landing position of object dropped from UAV KR101665315B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140142697A KR101665315B1 (en) 2014-10-21 2014-10-21 Estimation method and equipment of landing position of object dropped from UAV

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140142697A KR101665315B1 (en) 2014-10-21 2014-10-21 Estimation method and equipment of landing position of object dropped from UAV

Publications (2)

Publication Number Publication Date
KR20160046583A KR20160046583A (en) 2016-04-29
KR101665315B1 true KR101665315B1 (en) 2016-10-24

Family

ID=55915717

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140142697A KR101665315B1 (en) 2014-10-21 2014-10-21 Estimation method and equipment of landing position of object dropped from UAV

Country Status (1)

Country Link
KR (1) KR101665315B1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101882363B1 (en) * 2016-08-16 2018-07-26 공주대학교 산학협력단 non-lethal shots throwing system
CN107783542A (en) * 2016-08-26 2018-03-09 深圳光启空间技术有限公司 The control method and control system of unmanned plane
KR102239396B1 (en) * 2018-11-21 2021-04-12 대한민국 Apparatus for Dropping Grenade using Unmanned Air Vehicle and Control Method thereof
KR101996409B1 (en) * 2019-02-12 2019-10-01 대한민국(방위사업청장) Bomb release simulator for analyzing effectiveness of weapon, simulation method thereof and a computer-readable storage medium for executing the method
CN110697067B (en) * 2019-10-21 2024-02-20 深圳市科比特航空科技有限公司 Unmanned aerial vehicle transverse projection device
CN111025984B (en) * 2019-12-23 2021-02-26 中国科学院光电研究院 Near space ball carries control device that jettisonings
CN111544797A (en) * 2020-04-02 2020-08-18 峰飞国际有限公司 High-altitude throwing aiming method and system applied to unmanned aerial vehicle and storage medium
KR102299872B1 (en) * 2020-09-07 2021-09-07 오병후 Drone for detecting and removing mines
KR102453364B1 (en) * 2021-10-29 2022-10-07 한국전자기술연구원 Method for location determination of drone dropping device through photo mapping
KR102453372B1 (en) * 2021-10-29 2022-10-07 한국전자기술연구원 Method for predict location of the surface of device dropped from drone

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08324499A (en) * 1995-06-02 1996-12-10 Nec Corp Fire extinguisher dropping device
US20080074994A1 (en) 2006-09-21 2008-03-27 Innovative Sonic Limited Method for detecting radio link failure in wireless communications system and related apparatus
KR100996625B1 (en) * 2008-04-14 2010-11-25 국방과학연구소 Simulant of rotatable dropping object and method for simulating drop of the rotatable dropping object using the same
KR101021799B1 (en) * 2008-11-12 2011-03-17 주식회사 대한항공 Guide and Control Method For Automatic Recovery Of UAV
KR101658576B1 (en) * 2010-01-15 2016-09-22 삼성전자주식회사 Apparatus and method for measuring distance using image data

Also Published As

Publication number Publication date
KR20160046583A (en) 2016-04-29

Similar Documents

Publication Publication Date Title
KR101665315B1 (en) Estimation method and equipment of landing position of object dropped from UAV
JP6904608B2 (en) Devices and methods for generating flight restriction zones along boundaries or for assessing the aerial response of unmanned aerial vehicles (UAVs) to flight restriction zones.
US11884418B2 (en) Control device, control method, and flight vehicle device
EP3452881B1 (en) Imaging using multiple unmanned aerial vehicles
CN108367806B (en) With the adjustable Unmanned Aerial Vehicle for aiming at component
JP6402876B2 (en) Rotorcraft landing gear
JP2022501263A (en) Aircraft with countermeasures to neutralize the target aircraft
EP3251953B1 (en) Method and apparatus for landing flight device
JP2022504284A (en) Deployable aviation measures to neutralize and capture target aircraft
CN108062106A (en) Unmanned vehicle and the method for using unmanned vehicle shooting object
JP7039880B2 (en) Takeoff / landing device, control method of takeoff / landing device, and program
CA3006974A1 (en) Autonomous mission action alteration
CN106598063B (en) Unmanned aerial vehicle and flight control method
CN107820585B (en) Aircraft landing method, aircraft, and computer-readable storage medium
JP2018193061A (en) Rotary wing aircraft landing gear
KR101701397B1 (en) vehicle control method using unmanned vehicle and system
US11112798B2 (en) Methods and apparatus for regulating a position of a drone
US11873100B2 (en) Drone system, drone, movable body, drone system control method, and drone system control program
JP2021184262A (en) Controller, control method, and program
EP3868652A1 (en) Information processing system, information processing method, and program
JP2020138681A (en) Control system for unmanned flight vehicle
JP2020149640A (en) Flight system and landing control method
KR101990981B1 (en) Method for dropping rescue equipment and drone for rescue using the same
CN106542105B (en) Aircraft moving landing method and system
JP6514101B2 (en) Communication relay device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191205

Year of fee payment: 4