KR102467859B1 - A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor - Google Patents

A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor Download PDF

Info

Publication number
KR102467859B1
KR102467859B1 KR1020210125253A KR20210125253A KR102467859B1 KR 102467859 B1 KR102467859 B1 KR 102467859B1 KR 1020210125253 A KR1020210125253 A KR 1020210125253A KR 20210125253 A KR20210125253 A KR 20210125253A KR 102467859 B1 KR102467859 B1 KR 102467859B1
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
flight
displaying
information
Prior art date
Application number
KR1020210125253A
Other languages
Korean (ko)
Inventor
이관희
손창섭
김재홍
전세원
윤석영
이종두
안경모
김용수
Original Assignee
경남도립거창대학산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경남도립거창대학산학협력단 filed Critical 경남도립거창대학산학협력단
Priority to KR1020210125253A priority Critical patent/KR102467859B1/en
Application granted granted Critical
Publication of KR102467859B1 publication Critical patent/KR102467859B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • B64C2201/12
    • B64C2201/146

Abstract

The present invention relates to a method for performing autonomous pest control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor The method comprises, according to an embodiment of the present invention, comprises the steps of: displaying a user interface by executing a ground control program for autonomous flight and autonomous pest control of an unmanned aerial vehicle executed on a computing device; displaying a map image matching the received address information and the information on a plurality of work areas and works overlapping the map image; displaying the information on pest control status, flight path, and the state of the unmanned aerial vehicle about a selected work area among the plurality of work areas; and displaying at least one of image information of the selected work area filmed by the unmanned aerial vehicle while flying, information on a path along which the unmanned aerial vehicle has already flown, and information on the current location of the unmanned aerial vehicle within the selected work area.

Description

자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템{A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor}A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor}

본 발명은 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템에 관한 것이다.The present invention relates to a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor.

현재 국내 농업은 4차 산업 적용을 위해 인력의 고령화를 대체하기 위하여 무인비행체를 활용하고 있다. 농업용 무인비행체 방제, 항공예찰, 영상분석 등을 통하여 실시간 정보 분석의 중요성이 증가하여 무인비행체산업의 수요에 맞춰 급증하고 있는 실정이다. 최근의 4차 산업 혁명의 농업은 고령화를 해소하고 생산비용감소를 위하여 스마트농업으로 변화하였고 ICT(Information and Communications Technologies) 기술을 접목하여 기존의 방식의 효율성을 높이고 수익을 최적화하여 지속적인 관리를 통한 스마트농업의 발전이 전세계적으로 전개되고 있다. 무인비행체를 활용한 스마트 농업 시스템은 농민의 방제 작업을 지원하고 효율을 높여주므로 농업의 고령화에 따른 문제를 해결하는 역할로 급부상하고 있다. 그러나, 운영적인 측면에서 무인비행체의 효율성이 떨어지고 무인비행체의 활용에 대한 운영자와 소비자의 인식차이로 인하여 필요성이 감소되고 있다. 특히, 운영 기준 및 살포 효과에 대한 정확한 기준이 없어 소비자 측면에서 신뢰도가 감소하는 부분으로 작용하였다. 결국 무인비행체의 활용에 대한 분석의 연구가 희박하고 무인비행체 방제사의 조종 실력에 따라 방제 효율의 편차가 크게 발생하여 방제 분야에서 무인비행체의 보급을 저해하는 요소로 작용한다. 따라서, 자율주행을 진행하면서 방제를 수행할 수 있는 무인비행체에 대한 개발이 요구되었고, 관련하여 현재까지 개발된 다양한 기술을 활용하여 무인비행체의 자율주행이 적용되고 있다. 특히, 많은 노동력과 수만 평방미터의 균일한 작업 처리가 요구되는 방제에 있어서는 특히나 자율주행 무인비행체 기술을 활용하려는 시도가 많다. 더불어, 자율주행 무인비행체의 비행 상태, 방제 현황 및 방제 지도의 관리를 위한 통합적인 관제 시스템에 대한 필요성도 대두되고 있다. Currently, domestic agriculture is using unmanned aerial vehicles to replace the aging of the workforce for the application of the 4th industry. The importance of real-time information analysis has increased through agricultural unmanned aerial vehicle control, aerial surveillance, image analysis, etc., and is rapidly increasing in line with the demand of the unmanned aerial vehicle industry. Recently, agriculture in the 4th industrial revolution has changed to smart agriculture to resolve aging and reduce production costs, and ICT (Information and Communications Technologies) technology has been grafted to increase efficiency of existing methods and optimize profits to achieve smart agriculture through continuous management. Agricultural development is unfolding all over the world. A smart agricultural system using unmanned aerial vehicles is rapidly emerging as a role to solve problems caused by the aging of agriculture by supporting farmers' control work and increasing efficiency. However, in terms of operation, the efficiency of unmanned aerial vehicles is low, and the necessity is decreasing due to the difference in perception between operators and consumers regarding the utilization of unmanned aerial vehicles. In particular, there was no accurate standard for operating standards and spraying effects, which acted as a part in which reliability decreased from the consumer's point of view. In the end, research on the analysis of the utilization of unmanned aerial vehicles is rare, and there is a large deviation in control efficiency depending on the piloting ability of unmanned aerial vehicles. Therefore, the development of an unmanned aerial vehicle capable of performing pest control while autonomously driving has been required, and autonomous driving of an unmanned aerial vehicle is being applied using various technologies developed to date. In particular, there are many attempts to utilize self-driving unmanned aerial vehicle technology in pest control that requires a lot of labor and uniform work processing of tens of thousands of square meters. In addition, the need for an integrated control system for the management of the flight status, control status, and control map of the self-driving unmanned aerial vehicle is also emerging.

대한민국공개특허공보 제10-2020-0072215호Korean Patent Publication No. 10-2020-0072215

본 발명은 방제 관리 계획은 통합적으로 관리할 수 있도록 하여 빅데이터를 구축하고 이를 분석하여 중장기적인 작업계획을 통하여 작물의 수확량 증대가 가능하도록 하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템을 제공한다.The present invention enables control management plans to be managed in an integrated manner, thereby constructing and analyzing big data to increase the yield of crops through mid- to long-term work plans. A method and a ground control system for the same are provided.

또한, 본 발명은 무인비행체를 활용한 방제로 기존의 인력 대체가 가능하고 수요자의 신뢰도를 높여 방제 운영시스템 정착을 가능하게 한다.In addition, the present invention is possible to replace the existing manpower with control using an unmanned aerial vehicle, and enables the settlement of the control operation system by increasing the reliability of the consumer.

또한, 본 발명은 무인비행체 방제사의 수동조작을 통한 약제 살포의 불균일성을 해소하고 스마트자동모드를 통하여 무인비행체의 특성 파악이 가능한 기초 운영시스템을 구축할 수 있도록 한다.In addition, the present invention solves the non-uniformity of drug spraying through the manual operation of the unmanned aerial vehicle control operator and enables the construction of a basic operating system capable of identifying the characteristics of the unmanned aerial vehicle through a smart automatic mode.

실시예는, 컴퓨팅 장치에서 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램이 실행되어 유저 인터페이스를 표시하는 단계; 수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및 상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고, 무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.The embodiment includes the steps of displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device; displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and displaying information on the control status, flight path, and state of the unmanned aerial vehicle of the selected working area among the plurality of working areas, including image information obtained by photographing the selected working area while the unmanned aerial vehicle is flying, and flight of the unmanned aerial vehicle. It is possible to provide a method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight displaying at least one of path information already flown along a route and current location information of the unmanned aerial vehicle within the selected work area.

다른 측면에서, 상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하는 단계; 및 상기 표시된 지적도 이미지 상의 일 지점의 선택에 응답하여 선택된 지점을 무인비행체가 촬영한 이미지를 상기 선택된 일 지점에 중첩하여 표시하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, the user interface may include displaying a cadastral map image matching a searched address in response to selection of a cadastral map affordance; and displaying an image taken by an unmanned aerial vehicle of the selected point in response to the selection of a point on the displayed cadastral map image on the selected point; How to do it can be provided.

다른 측면에서, 상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하고, 무인비행체가 표시된 지적도 이미지 상의 지역을 촬영한 이미지를 상기 지적도 이미지와 중첩하여 표시하는 단계; 및 상기 촬영한 이미지와 상기 지적도 이미지가 중첩되지 않는 영역의 선택에 응답하여 선택된 지점을 촬영한 이미지를 불러드려 상기 중첩되지 않는 영역에 정합하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, the user interface displays a cadastral map image matching the searched address in response to selection of the cadastral map affordance, and overlaps and displays an image of a region on the cadastral map image on which the unmanned aerial vehicle is displayed, overlapping the cadastral map image; and in response to selection of an area where the captured image and the cadastral map image do not overlap, loading an image of a selected point and matching the captured area to the non-overlapping area; Thus, it is possible to provide a method for performing autonomous control.

다른 측면에서, 상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상의 복수의 지점의 선택에 응답하여 선택된 지점을 연결하는 비행 경로를 설정하고, 설정된 비행 경로를 따라 무인비행체가 이동하며 촬영한 영상을 재생하는 단계;를 더 포함하고, 상기 경로 설정 인터페이스 상에서 설정된 무인비행체의 비행 속도에 기초하여 영상의 재생 속도가 변경되는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and setting a flight path connecting the selected points in response to the selection of a plurality of points on the map image displayed on the path setting interface, and reproducing the captured image while the UAV moves along the set flight path. In addition, it is possible to provide a method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight in which an image playback speed is changed based on the flight speed of the unmanned aerial vehicle set on the route setting interface.

다른 측면에서, 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상에 촬영된 피사체의 종류 정보를 표시하는 단계; 상기 종류 정보 내의 복수의 항목 중 어느 하나의 선택에 응답하여 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 내에서 선택된 항목에 매칭되는 영역에 그리드 맵을 표시하는 단계; 상기 그리드 맵 내에서 무인비행체의 비행 경로를 설정 및 수정할 수 있도록 하는 편집용 그리드 맵을 표시하는 단계; 및 상기 그리드 맵은 복수의 부분 그리드로 구성되고, 상기 복수의 부분 그리드들 중 어느 하나의 선택에 응답하여 선택된 부분 그리드 내의 세부 비행 경로의 설정 및 수정을 허용하는 인터페이스를 제공하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, displaying type information of a photographed subject on a map image displayed on the route setting interface; displaying a grid map in an area matching the selected item in the map image displayed on the route setting interface in response to selection of any one of a plurality of items in the type information; displaying a grid map for editing allowing the flight path of the unmanned aerial vehicle to be set and modified within the grid map; and providing an interface allowing setting and modifying detailed flight paths in the selected partial grid in response to selection of one of the plurality of partial grids, wherein the grid map is composed of a plurality of partial grids. It is possible to provide a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.

다른 측면에서, 상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및 상기 경로 설정 인터페이스는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체가 비행할 수 있는 복수의 레이어를 설정하는 단계;를 더 포함하고, 상기 복수의 레이어를 설정하는 단계는, 표면 스캐닝 데이터로부터 피사체의 포인트 클라우드를 획득하고, 상기 포인트 클라우드의 분석에 기초하여 상기 피사체들을 식별하고, 포인트 클라우드의 분석에 기초하여 상기 피사체들의 특정 포인트들을 연결하는 복수의 레이어를 설정하여, 상기 복수의 레이어 중 어느 하나의 레이어 상에서 상기 무인비행체가 자율 주행 가능하도록 하는 비행 경로를 설정하도록 하고, 상기 무인비행체가 비행 경로 상에서 장애물을 인식하면 상기 무인비행체에게 할당된 레이어와 다른 레이어로 회피 이동하되 상기 무인비행체에게 할당된 레이어 상에서의 비행 경로의 형태를 유지하며 상기 다른 레이어 상에서 비행하는 것을 시뮬레이션하는 장애물 회피 시뮬레이션 인터페이스를 제공하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수도 있다.In another aspect, displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and setting a plurality of layers through which the unmanned aerial vehicle can fly in response to a selection of a flight layer setting affordance, in the path setting interface, wherein the setting of the plurality of layers comprises the subject from the surface scanning data. Obtaining a point cloud of , identifying the subjects based on the analysis of the point cloud, and setting a plurality of layers connecting specific points of the subjects based on the analysis of the point cloud, thereby selecting one of the plurality of layers. On the layer of the UAV, set a flight path that enables autonomous navigation, and when the UAV recognizes an obstacle on the flight path, move to avoid and move to a layer different from the layer assigned to the UAV. Maintaining the shape of the flight path on the layer and providing an obstacle avoidance simulation interface that simulates flying on the other layer; may be

실시예는 방제 활동 중인 무인비행체의 실시간 위치 정보와 방제 현황 정보를 제공하고 및 자동 방제 기능 구현할 수 있도록 하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템을 제공할 수 있다.The embodiment provides a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight that provides real-time location information and control status information of an unmanned aerial vehicle during control activities and implements an automatic control function, and provides a ground control system therefor. can do.

실시예는 각종 지도 이미지 상에서 작업 영역, 작업의 종류, 비행 타입과 작업을 위한 비행 경로의 용이한 설정이 가능하도록 하는 방법을 제공할 수 있다.The embodiment may provide a method for enabling easy setting of a work area, a work type, a flight type, and a flight route for work on various map images.

실시예는 지적도면과 현황사이에서의 비정합 필지 수정을 위한 무인비행체 영상 업로드 및 지적도면 편집이 가능하도록 하는 방법 및 이를 위한 시스템을 제공할 수 있다.Embodiments may provide a method and system for enabling unmanned aerial vehicle image upload and cadastral map editing for correcting inconsistent parcels between the cadastral map and current status.

도 1은 본 발명의 실시예에 따른 지상 관제 시스템 시스템에 대한 개략도이다.
도 2 내지 도 13은 컴퓨팅 장치에 설치되어 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램의 유저 인터페이스를 개략적으로 나타낸 것이다.
1 is a schematic diagram of a ground control system system according to an embodiment of the present invention.
2 to 13 schematically show a user interface of a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle installed and executed in a computing device.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. Also, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, terms such as include or have mean that features or elements described in the specification exist, and do not preclude the possibility that one or more other features or elements may be added. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 지상 관제 시스템 시스템에 대한 개략도이다.1 is a schematic diagram of a ground control system system according to an embodiment of the present invention.

도 1을 참조하면, 무인비행체(30)는 생성된 자율항법지도에 기초하여 비행 영역(11)을 따라 자율 비행할 수 있다. 여기서의 비행 영역(11)은 무인비행체(30)가 비행하면서 미리 설정된 다양한 작업 중 적어도 하나의 작업을 수행하는 영역으로 정의할 수 있다.Referring to FIG. 1 , an unmanned aerial vehicle 30 may autonomously fly along a flight area 11 based on a generated autonomous navigation map. Here, the flight area 11 may be defined as an area in which at least one of various preset tasks is performed while the unmanned aerial vehicle 30 flies.

자율주행이 가능한 무인비행체(30)는 다중 또는 단일 로터 무인 비행체(UAV) 또는 하이브리드 비행선이 될 수 있다. 무인비행체(30)는 자이로스코프, 가속도계, 자력계(나침반), 기압계, 소나, 광학 흐름 센서, 에너지 관리 모듈, 전압 관리 모듈, GPS 모듈을 포함할 수 있다. 각종 센서는 모터 입력, 고도, 피치, 롤, 방향, 위치, 자세, 고정밀 절대 및 상대 위치, 장애물 감지, 거리 감지, 속도 제어 및 디지털 풍속 감지 기능을 제공할 수 있다. 일부 실시예에서, 무인비행체(30)는 농작물에 비료 등을 살포하는 동안이나 기타 현장 작업을 수행하는 동안 하중 중량 변화에 따른 비행 속도 등이 제어될 수 있다.The unmanned aerial vehicle 30 capable of autonomous navigation may be a multi- or single-rotor unmanned aerial vehicle (UAV) or a hybrid airship. The unmanned aerial vehicle 30 may include a gyroscope, an accelerometer, a magnetometer (compass), a barometer, a sonar, an optical flow sensor, an energy management module, a voltage management module, and a GPS module. Various sensors can provide motor input, altitude, pitch, roll, direction, position, attitude, high-precision absolute and relative position, obstacle detection, distance detection, speed control and digital wind speed detection. In some embodiments, the flight speed of the unmanned aerial vehicle 30 according to a change in load weight may be controlled while spraying fertilizer on crops or performing other field work.

무인비행체(30)는 프레임과 프레임에 장착된 모터와 프레임에 부착된 전자 및 통신 장비를 포함할 수 있다. 모터의 수는 3개(트라이-콥터)에서 4개(쿼드-콥터), 6개(헥사-콥터), 8(옥토-콥터) 또는 필요한 추력에 따라 그 이상이 될 수 있다. The unmanned aerial vehicle 30 may include a frame, a motor mounted on the frame, and electronic and communication equipment attached to the frame. The number of motors can be three (tri-copter), four (quad-copter), six (hexa-copter), eight (octo-copter) or more depending on the thrust required.

컴퓨팅 장치(200)는 휴대형의 단말기(200a) 및/또는 데스크탑이나 서버(200b)를 포함할 수 있다. 컴퓨팅 장치(200)는 무인비행체(30)의 구동을 제어하고, 자율항법지도를 생성할 수 있다.The computing device 200 may include a portable terminal 200a and/or a desktop or server 200b. The computing device 200 may control driving of the unmanned aerial vehicle 30 and generate an autonomous navigation map.

단말기(200a)는 표시된 각종 어포던스의 선택을 수신할 수 있다. 여기서의 선택은 예시적으로 터치 입력이 될 수 있다. 또한, 단말기(200a)는 선택 및 선택의 이동 그리고 선택을 종료 여부를 판단할 수 있고, 선택의 이동은 예시적으로 연속된 터치 입력 및 터치 입력 위치의 이동이 될 수 있다.The terminal 200a may receive selection of various affordances displayed. Selection here may be a touch input by way of example. In addition, the terminal 200a may determine selection, movement of the selection, and whether to end the selection, and the movement of the selection may exemplarily be a continuous touch input and movement of the touch input position.

데스크탑(200b)은 표시된 각종 어포던스의 선택을 수신할 수 있다. 여기서의 선택은 예시적으로 마우스와 같은 외부 입력 장치에 의한 명령 신호의 입력이 될 수 있다. 또한, 데스크탑(200b)은 선택 및 선택의 이동 그리고 선택을 종료 여부를 판단할 수 있고, 선택의 이동은 예시적으로 외부 입력 장치에 의한 연속된 명령 신호의 입력 및 명령 신호의 입력의 위치 이동이 될 수 있으나 이에 제한되는 것은 아니다.The desktop 200b may receive selection of various affordances displayed. Selection here may be an input of a command signal by an external input device such as a mouse. In addition, the desktop 200b can determine selection, movement of the selection, and whether to end the selection. The movement of the selection is, for example, a continuous input of a command signal by an external input device and movement of the position of the input of the command signal. It can be, but is not limited thereto.

도 2 내지 도 13은 컴퓨팅 장치에 설치되어 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램의 유저 인터페이스를 개략적으로 나타낸 것이다.2 to 13 schematically show a user interface of a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle installed and executed in a computing device.

기록 매체에 저장 가능한 지상관제 프로그램(100)은 컴퓨팅 장치(200) 상에서 실행된 후, 유저의 정보를 입력하여 컴퓨터 프로그램(100)에 로그인 절차를 거치면 도 2에서 예시적으로 도시된 바와 같은 유저 인터페이스(110)가 표시될 수 있다.After the ground control program 100 storable in a recording medium is executed on the computing device 200, user information is entered and the computer program 100 goes through a log-in procedure to provide a user interface as exemplarily shown in FIG. 2 . (110) may be displayed.

유저 인터페이스(110)는 메인 메뉴 어포던스(112)를 표시할 수 있다. 메인 메뉴 어포던스(112)는 지도 어포던스, 경로설정 어포던스, 상태정보 어포던스, 방제현황 어포던스 및 지적도 어포던스를 포함할 수 있다.The user interface 110 may display the main menu affordance 112 . The main menu affordance 112 may include map affordance, route setting affordance, status information affordance, control status affordance, and cadastral map affordance.

컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 복수의 어포던스 중 어느 하나의 선택에 응답하여 다양한 유저 인터페이스를 제공할 수 있다.The computing device 200 may provide various user interfaces in response to selection of any one of a plurality of affordances in the main menu affordance 112 .

유저 인터페이스(110)는 검색 창(111)에 입력된 주소 정보에 매칭되는 제1 지도 이미지(im1)를 표시할 수 있다.The user interface 110 may display the first map image im1 matching address information input to the search window 111 .

제1 지도 이미지(im1)는 항공 사진 이미지가 될 수 있으나 이에 제한되는 것은 아니다.The first map image im1 may be an aerial photographic image, but is not limited thereto.

제1 지도 이미지(im1) 상에는 복수의 작업 영역(113)이 제1 지도 이미지(im1)에 중첩하여 표시될 수 있다. 복수의 작업 영역(113)들은 서로 구분될 수 있도록 작업 영역의 경계를 따라 그려진 점선으로 표시될 수 있으나 이에 제한되는 것은 아니다.On the first map image im1, the plurality of work areas 113 may be overlapped and displayed on the first map image im1. The plurality of work areas 113 may be displayed as dotted lines drawn along the boundaries of the work areas to be distinguished from each other, but are not limited thereto.

복수의 작업 영역(113)들은 작업 상태에 따라 서로 구분되어 표시될 수 있다. 예시적으로, 작업이 완료된 작업 영역(113a)과 작업이 진행 중인 작업 영역(113b)는 서로 구분되어 표시될 수 있다.The plurality of work areas 113 may be displayed separately from each other according to work conditions. Illustratively, the work area 113a where the work is completed and the work area 113b where the work is in progress may be displayed separately from each other.

일부 실시예에서, 복수의 작업 영역(113)들 중에서 방제 방식, 방제사, 토지의 소유주 정보 등 공통되는 성격에 따라 그룹핑되어 그룹들간에 구분이 가능한 형태로 표시될 수도 있다.In some embodiments, among the plurality of work areas 113, they may be grouped according to common characteristics such as a control method, a control operator, and land owner information, and may be displayed in a form in which groups can be distinguished.

복수의 작업 영역(113) 각각에 대응하는 작업 요약 정보(114)가 제1 지도 이미지(im1)와 중첩되어 표시될 수 있다. 작업 요약 정보(114)는 작업 영역의 위치 정보, 방제 정보 등을 다양한 정보들의 요약 정보를 포함할 수 있다.The task summary information 114 corresponding to each of the plurality of work areas 113 may be overlapped with the first map image im1 and displayed. The work summary information 114 may include summary information of various pieces of information such as location information of the work area and control information.

도 3을 참조하면, 컴퓨팅 장치(200)는 제1 지도 이미지(im1) 상에 표시된 복수의 작업 영역(113) 중 어느 하나의 선택에 응답하여 선택된 작업 영역(113)의 작업 영역 세부 정보(110a)를 표시할 수 있다.Referring to FIG. 3 , the computing device 200 provides detailed work area information 110a of the selected work area 113 in response to selection of any one of the plurality of work areas 113 displayed on the first map image im1. ) can be displayed.

유저 인터페이스(110)에서 표시되는 작업 영역 세부 정보(110a)는 제2 지도 이미지(im2)와 제3 지도 이미지(im3) 그리고 무인비행체(30)의 비행 경로 정보(115) 및 상태 정보(116)를 포함할 수 있다.The work area detailed information 110a displayed on the user interface 110 includes the second map image im2 and the third map image im3, flight path information 115 and state information 116 of the unmanned aerial vehicle 30. can include

제2 및 제3 지도 이미지(im2, im3)는 항공 사진 이미지가 될 수 있으나 이에 제한되는 것은 아니다.The second and third map images im2 and im3 may be aerial photographic images, but are not limited thereto.

제2 지도 이미지(im2)는 선택된 작업 영역(113)을 확대한 이미지가 될 수 있다. 그리고, 제3 지도 이미지(im3)에는 선택된 작업 영역(113)과 최인접한 스테이션(si)에 대한 정보가 표시될 수 있다. 무인비행체(30)는 스테이션(si)에서 배터리의 충전, 작업에 필요한 도구 세트의 장착이나 교환, 작업 영역에 분사할 비료나 살충제 등의 화학 물질 등의 충전 작업 등을 진행할 수 있으나 이에 제한되는 것은 아니다.The second map image im2 may be an enlarged image of the selected work area 113 . In addition, information on the station si closest to the selected work area 113 may be displayed on the third map image im3. The unmanned aerial vehicle 30 may perform charging of batteries, installation or exchange of tool sets necessary for work, charging of chemicals such as fertilizers or pesticides to be sprayed on the work area, etc. at the station (si), but is not limited thereto. not.

비행 경로 정보(115)는 설정된 자율항법지도에 기초하여 설정된 무인비행체(30)가 선택된 작업 영역(113) 상에서의 비행하는 경로에 대한 정보가 될 수 있다. 예시적으로, 작업 영역(113)과 대응하는 형태의 경계선이 도시되고, 경계선 내에는 비행 경로가 표시됨으로써 선택된 작업 영역(113) 상에서 무인비행체(30)의 비행 경로를 확인할 수 있도록 한다.The flight path information 115 may be information about a path on which the unmanned aerial vehicle 30 set based on the set autonomous navigation map flies on the selected work area 113 . Exemplarily, a boundary line corresponding to the work area 113 is shown, and a flight path is displayed within the boundary line, so that the flight path of the unmanned aerial vehicle 30 on the selected work area 113 can be checked.

상태 정보(116)는 무인비행체(30)의 배터리 총량, 저장하고 있는 화학물질의 총량, 이들의 사용량, 비행가능시간 정보 그리고, 방제의 현재 상태에 대한 정보를 포함할 수 있다. 작업 영역(113)의 작업 완료, 작업 중, 작업 전 상황에 따라 상태 정보(116)에 포함되는 정보들은 달라질 수 있다.The state information 116 may include information about the total amount of the battery of the unmanned aerial vehicle 30, the total amount of stored chemicals, their usage, flight time information, and the current state of control. Information included in the status information 116 may vary depending on the completion of work, during work, and before work of the work area 113 .

도 4를 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 상태 정보 어포던스의 선택에 응답하여 검색 창(111)에서 입력된 프로젝트와 매칭된 작업의 상태 정보를 표시할 수 있다.Referring to FIG. 4 , the computing device 200 may display status information of a task matched with a project input in the search window 111 in response to selection of a status information affordance in the main menu affordance 112 .

예시적으로 프로젝트 1이 검색된 경우, 프로젝트 1과 관련된 작업의 상태 정보가 표시될 수 있다.For example, when Project 1 is searched for, status information of tasks related to Project 1 may be displayed.

유저 인터페이스(110)는 작업 영역에서 작업 중인 무인비행체(30)가 촬영하는 영상을 실시간 영상(im4)으로서 표시할 수 있다.The user interface 110 may display an image captured by the unmanned aerial vehicle 30 working in the work area as a real-time image im4.

컴퓨팅 장치(200)는 실시간 영상(im4)의 확대 어포던스(+기호) 또는 축소 어포던스(-기호)의 선택에 응답하여 확대되거나 축소된 실시간 영상(im4)이 표시될 수 있다. 컴퓨팅 장치(200)는 실시간 영상(im4)의 확대 어포던스(+기호) 또는 축소 어포던스(-기호)의 선택에 응답하여 무인비행체(30)에 탑재된 카메라의 줌인 또는 줌아웃을 명령하는 신호를 무인비행체(30)로 제공할 수 있다. 무인비행체(30)는 줌인 또는 줌아웃을 명령하는 신호의 수신에 응답하여 카메라의 초점을 조절한 후 촬영한 영상을 실시간으로 컴퓨팅 장치(200)로 전송할 수 있다.The computing device 200 may display the enlarged or reduced real-time image im4 in response to selection of an enlargement affordance (+ sign) or a reduction affordance (-sign) of the real-time image im4. The computing device 200 transmits a signal commanding zoom-in or zoom-out of the camera mounted on the unmanned aerial vehicle 30 in response to selection of an enlargement affordance (+ sign) or a reduction affordance (-sign) of the real-time image im4. (30) can be provided. The unmanned aerial vehicle 30 may adjust the focus of a camera in response to receiving a signal for a zoom-in or zoom-out command, and transmit the photographed image to the computing device 200 in real time.

또한, 유저 인터페이스(110)는 방제 진행 상황, 무인비행체(30)의 배터리 충전량, 비료 등의 잔량에 대한 정보를 포함하는 방제 진행 상황 정보(117)를 표시할 수 있다. 방제 진행 상항 정보(117)는 그 밖의 다양한 방제 진행과 관련한 정보를 포함할 수 있다.In addition, the user interface 110 may display pest control progress information 117 including information on the progress of pest control, the amount of battery charge of the unmanned aerial vehicle 30, and the remaining amount of fertilizer. Control progress status information 117 may include information related to various other control progress.

또한, 유저 인터페이스(110)는 실시간 방제 경로 정보(118)를 표시할 수 있다. 실시간 방제 현황 정보(118)에는 작업 영역(113), 무인비행체(30)의 비행 경로 및 무인비행체(30)의 작업을 진행하면서 이미 비행한 경로가 표시될 수 있다.In addition, the user interface 110 may display real-time control route information (118). The real-time control status information 118 may display a work area 113, a flight path of the unmanned aerial vehicle 30, and a path already flown while the unmanned aerial vehicle 30 is working.

여기서의 이미 비행한 경로는 비행 경로의 적어도 일부와 중첩되어 표시될 수 있다.An already flown path here may be displayed overlapping with at least a part of the flight path.

또한, 유저 인터페이스(110)는 작업 영역(113) 내에서의 현재 무인비행체(30)의 실시간 위치 정보(119)를 표시할 수 있다.In addition, the user interface 110 may display real-time location information 119 of the current unmanned aerial vehicle 30 within the work area 113 .

도 5를 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 방제 현황 어포던스의 선택에 응답하여 등록된 방제 현황 정보를 표시할 수 있다.Referring to FIG. 5 , the computing device 200 may display registered control status information in response to selection of the control status affordance in the main menu affordance 112 .

유저 인터페이스(110)는 방제 현황 정보와 관련하여 등록된 작업 영역, 작업 영역의 위치, 작업 상태, 담당자, 작업 진행 상황에 대한 정보를 표시할 수 있다.The user interface 110 may display information about the registered work area, the location of the work area, the work status, the person in charge, and the work progress in relation to the control status information.

또한, 표시된 방제 현황 정보들 중에서 유저 인터페이스(110)는 검색 창에 입력된 정보에 매칭되는 정보만을 표시할 수도 있다.In addition, among the displayed control status information, the user interface 110 may display only information matching information input to the search window.

또한 유저 인터페이스(110)는 상세보기 어포던스의 선택에 응답하여 전술한 도 4와 같은 선택된 항목과 관련된 상태 정보를 표시할 수도 있다.In addition, the user interface 110 may display status information related to the selected item as shown in FIG. 4 in response to selection of the detail view affordance.

도 6을 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 지적도 어포던스의 선택에 응답하여 검색 창(111)에 입력된 주소 정보와 매칭되는 지역의 지적도 이미지(im5)를 표시할 수 있다.Referring to FIG. 6 , the computing device 200 may display a cadastral map image im5 of a region matching address information input in the search window 111 in response to selection of the cadastral map affordance in the main menu affordance 112. have.

컴퓨팅 장치(200)는 표시된 지적도 이미지(im5) 상의 선택된 지점에 대응하는 지적도 상의 위치를 촬영한 무인비행체(30)의 영상 이미지를 선택된 지점과 중첩하여 표시할 수 있다.The computing device 200 may overlap and display a video image of the unmanned aerial vehicle 30 photographing a position on the cadastral map corresponding to the selected point on the displayed cadastral map image im5 with the selected point.

유저 인터페이스(110)는 지적도 이미지(im5) 상의 복수의 위치들 중에서 무인비행체(30)의 촬영 영상이 등록되지 않은 지점을 그렇지 않은 지점과 구분하여 표시할 수 있다. 유저 인터페이스(110)는 촬영 영상이 등록되지 않은 지점에 대한 선택에 응답하여 무인비행체(30)가 촬영한 영상을 등록할 수 있도록 허용한다. 또한, 유저 인터페이스(110)는 무인비행체(30)가 촬영 영상의 검색 기능을 제공하고, 검색된 무인비행체(30)의 촬영 이미지(im6)를 적어도 하나 표시할 수 있다.The user interface 110 may distinguish and display a point where a photographed image of the unmanned aerial vehicle 30 is not registered from among a plurality of locations on the cadastral map image im5. The user interface 110 allows the unmanned aerial vehicle 30 to register the captured image in response to selection of a point where the captured image is not registered. In addition, the user interface 110 may provide a search function for images captured by the unmanned aerial vehicle 30 and display at least one captured image im6 of the searched unmanned aerial vehicle 30 .

일부 실시예에서, 유저 인터페이스(110)는 지적도면과 현황사이에서 비정합 필지에 대한 무인비행체(30)의 촬영 영상 업로드 및 지적도면 편집기능을 추가로 제공할 수도 있다.In some embodiments, the user interface 110 may additionally provide a function of uploading a photographed image of the unmanned aerial vehicle 30 and editing the cadastral map for non-matching parcels between the cadastral map and the current state.

상세하게, 도 7을 참조하면, 유저 인터페이스(110)는 중첩 보기 어포던스의 선택에 응답하여 표시된 지적도 이미지(im5)에 중첩하여 무인비행체(30)의 촬영 이미지(im7)가 지적도 이미지(im5)와 중첩하여 표시될 수 있다. 지적도 이미지(im5) 상에서 무인비행체(30)의 촬영 이미지가 존재하지 미중첩 영역이 존재할 수 있다(도시된 예에 따르면, 277-6, 712-7 영역). 유저 인터페이스(110)는 무인비행체(30)의 촬영 이미지가 존재하지 않은 영역인 미중첩 영역 중 어느 하나의 선택 및 무인비행체 영상 검색 어포던스의 선택에 응답하여 선택된 미중첩 영역을 촬영한 촬영 이미지(im6)를 검색하여 표시할 수 있다. 도 8을 참조하면, 유저 인터페이스(110)는 표시된 촬영 이미지(im6)의 선택 및 선택의 이동에 응답하여 촬영 이미지(im6)를 선택의 이동 방향에 따라 이동시킬 수 있다. 유저 인터페이스(110)는 촬영 이미지(im6)가 이동하여 선택된 미중첩 영역에 위치하면 촬영 이미지(im6)와 지적도 이미지(im5)에 이미 중첩된 촬영 이미지(im7)를 서로 정합하여 하나의 이미지로 생성하고, 이를 지적도 이미지(im5)와 중첩하여 표시할 수 있다.In detail, referring to FIG. 7 , the user interface 110 superimposes the displayed cadastral map image im5 in response to selection of the overlap view affordance so that the photographed image im7 of the unmanned aerial vehicle 30 is overlapped with the cadastral map image im5. Can be displayed overlapping. On the cadastral map image im5, there may be non-overlapping areas where the photographed image of the unmanned aerial vehicle 30 does not exist (regions 277-6 and 712-7 according to the illustrated example). The user interface 110 displays a captured image (im6) in which the selected non-overlapped area is captured in response to selection of one of non-overlapped areas, which is an area where the captured image of the unmanned aerial vehicle 30 does not exist, and selection of an unmanned aerial vehicle image search affordance. ) can be searched and displayed. Referring to FIG. 8 , the user interface 110 may move the captured image im6 according to the selected movement direction in response to selection of the displayed captured image im6 and movement of the selected image. When the captured image im6 moves and is located in the selected non-overlapped area, the user interface 110 registers the captured image im6 and the captured image im7 already overlapped with the cadastral map image im5 to create one image. It can be displayed by overlapping it with the cadastral map image (im5).

도 9를 참조하면, 유저 인터페이스(110)는 표시된 지적도 이미지(im5)에서 선택된 지점에 매칭되는 무인비행체(30)의 촬영 이미지(im7)를 지적도 이미지(im5)와 중첩하여 표시할 수 있다. 사용자가 지적도 이미지(im5) 상의 복수의 지점을 선택하면 유저 인터페이스(110)는 선택 지점들을 서로 연결하여 가상의 폐쇄 영역을 설정하여 폐쇄 영역 내를 무인비행체(30)가 촬영한 이미지(im7)로 채워넣을 수 있다. 따라서, 폐쇄 영역 상에 표시된 촬영 이미지(im7)와 지적도 이미지(im5)는 서로 중첩하여 표시될 수 있다.Referring to FIG. 9 , the user interface 110 may overlap and display a photographed image im7 of the unmanned aerial vehicle 30 matching a selected point in the displayed cadastral map image im5 with the cadastral map image im5. When the user selects a plurality of points on the cadastral map image (im5), the user interface 110 connects the selected points to each other to set a virtual closed area and converts the closed area into an image (im7) captured by the unmanned aerial vehicle 30. can be filled in. Accordingly, the photographed image im7 and the cadastral map image im5 displayed on the closed area may be displayed overlapping each other.

도 10을 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 경로 설정 어포던스의 선택에 응답하여 자율 비행 경로를 설정할 수 있는 경로 설정 인터페이스(130)를 제공할 수 있다.Referring to FIG. 10 , the computing device 200 may provide a route setting interface 130 capable of setting an autonomous flight route in response to selection of a route setting affordance in the main menu affordance 112 .

경로 설정 인터페이스(130)는 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 경로 설정 인터페이스(130)는 2D/3D 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지역의 2D 또는 3D 이미지를 표시할 수 있다. 또한, 경로 설정 인터페이스(130)는 지도의 종류 어포던스의 선택에 응답하여 사용자가 표시되는 지도의 종류를 변경할 수 있도록 허용할 수 있다.The route setting interface 130 may display a map image im8 matched with address information input in the search window 111 . The route setting interface 130 may display a 2D or 3D image of a region matching the searched address in response to selection of the 2D/3D affordance. In addition, the route setting interface 130 may allow the user to change the type of map displayed in response to the selection of the map type affordance.

경로 설정 인터페이스(130)는 지도 이미지(im8) 상에서의 선택된 복수의 지점(p1 내지 p6)을 서로 연결하는 경로를 표시할 수 있다. 예시적으로, 사용자는 표시된 지도 이미지(im8) 상에서의 동일 지점에 대한 한번의 선택 또는 연속된 복수의 선택을 통해 경로 시작 지점과 경로 종료 지점을 또는 경유 지점을 설정할 수 있다. 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8)에서 동일 지점에 대한 연속된 선택을 수신하면 해당 지점을 경로의 시작 지점(ps)으로 설정할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상의 일 지점에 대한 선택에 응답하여 선택된 지점을 경류 지점으로 설정(p2 내지 p5)할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8)에서 동일 지점에 대한 연속된 선택을 수신하면 이미 경로의 시작 지점(ps)이 설정되어 있으므로 해당 지점을 경로의 종료 지점(pe)으로 설정할 수 있다.The route setting interface 130 may display routes connecting the selected plurality of points p1 to p6 on the map image im8. Exemplarily, the user may set a route starting point and a route ending point or passing points through a single selection or a plurality of consecutive selections of the same point on the displayed map image im8. The route setting interface 130 may set the corresponding point as the start point ps of the route when consecutive selections of the same point are received in the displayed map image im8. Further, the route setting interface 130 may set the selected point as a route point in response to selection of a point on the displayed map image im8 (p2 to p5). In addition, when the route setting interface 130 receives continuous selection of the same point in the displayed map image im8, since the starting point ps of the route has already been set, the corresponding point will be set as the ending point pe of the route. can

경로 설정 인터페이스(130)는 경로의 시작 지점(ps) 및 경로의 종료 지점(pe)이 설정되면 설정된 모든 지점을 서로 연결하여 하나의 비행 경로(pp)를 설정할 수 있다.When the starting point ps and ending point pe of the route are set, the route setting interface 130 may set one flight route pp by connecting all the set points to each other.

경로 설정 인터페이스(130)는 경로 상의 촬영 영상 어포던스의 선택에 응답하여 설정된 비행 경로(pp)를 따라 무인비행체(30)가 이동하면서 촬영한 동영상을 표시할 수 있다. 경로 설정 인터페이스(130)는 영상의 재생 시간에 동기하여 설정된 비행 경로(pp)를 따라 이동하는 아이콘을 표시할 수 있다. 여기서의 아이콘은 무인비행체(30)의 형상을 닯은 아이콘이 될 수 있으나 이에 제한되는 것은 아니다.The route setting interface 130 may display a video captured while the unmanned aerial vehicle 30 moves along the set flight path pp in response to selection of a photographed image affordance on the route. The route setting interface 130 may display an icon moving along the set flight route pp in synchronization with the reproduction time of the video. The icon here may be an icon resembling the shape of the unmanned aerial vehicle 30, but is not limited thereto.

사용자는 경로 설정 인터페이스(130)에서 작업의 종류, 설정된 비행 경로(pp)를 따라 이동하는 무인비행체(30)의 고도, 속도, 짐벌 피치각, 무인비행체(30)의 이동 방향을 추가로 설정할 수 있도록 한다. 일부 실시예에서, 무인비행체(30)의 속도가 변경되면, 그에 따라 경로 상의 촬영 영상의 재생 속도 또한 변경되고, 이에 동기하여 설정된 비행 경로(pp)를 따라 이동하는 아이콘의 이동 속도도 변경될 수 있다.The user may additionally set the type of work, the altitude, speed, gimbal pitch angle, and moving direction of the unmanned aerial vehicle 30 moving along the set flight path (pp) in the path setting interface 130. let it be In some embodiments, when the speed of the unmanned aerial vehicle 30 is changed, the playback speed of the captured image on the path is also changed accordingly, and the moving speed of the icon moving along the set flight path (pp) may also be changed in synchronization therewith. have.

도 11을 참조하면, 경로 설정 인터페이스(130)는 지정된 지역 내의 작업 계획을 설정하기 위한 환경을 제공할 수도 있다.Referring to FIG. 11 , the path setting interface 130 may provide an environment for setting a work plan within a designated area.

경로 설정 인터페이스(130)는 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상의 복수의 지점의 선택에 응답하여 선택된 지점(ap)들을 서로 연결하여 하나의 지역 영역(lo)을 자동으로 설정할 수 있다.The route setting interface 130 may display a map image im8 matched with address information input in the search window 111 . Further, the route setting interface 130 may automatically set one local area lo by connecting the selected points ap to each other in response to selection of a plurality of points on the displayed map image im8.

경로 설정 인터페이스(130)는 지역 영역(lo)이 설정되면 지역 영역(lo)의 면적 정보를 제공할 수 있다. 그리고, 경로 설정 인터페이스(130)는 지역 영역(lo)에서 무인비행체(30)가 진행할 작업의 종류 및 비행 타입을 선택할 수 있는 인터페이스를 제공할 수 있다. 사용자는 복수의 서로 다른 작업의 종류에서 어느 하나의 작업을 선택하고, 복수의 비행 타입 중 어느 하나의 비행 타입을 선택할 수 있다. 경로 설정 인터페이스(130)는 선택된 작업의 종류와 비행 타입에 기초하여 설정된 지역 영역(lo) 내에서 최적의 비행 경로, 비행 시간, 비행 속도를 자동으로 설정할 수 있다. 예를 들어, 무인비행체(30)가 살충제를 지역 영역(lo) 상에 살포하는 작업이 선택된 경우, 살충제의 분사 범위와 분사의 정밀도 정보에 기초하여 비행 경로가 설정될 수 있다. 또한, 비행타입으로 무인비행체(30)의 저속 비행이 선택된 경우에는 미리 설정된 속도 이하로 무인비행체(30)가 비행할 수 있도록 비행 속도가 설정될 수 있다.The route setting interface 130 may provide area information of the local area lo when the local area lo is set. Also, the route setting interface 130 may provide an interface for selecting the type of work and flight type to be performed by the unmanned aerial vehicle 30 in the local area lo. The user may select one of a plurality of different job types and select one of a plurality of flight types. The route setting interface 130 may automatically set an optimal flight route, flight time, and flight speed within the set regional area lo based on the selected task type and flight type. For example, when the task of spraying the insecticide on the local area lo by the unmanned aerial vehicle 30 is selected, a flight path may be set based on information about the spraying range of the insecticide and the precision of the spraying. In addition, when low-speed flight of the unmanned aerial vehicle 30 is selected as the flight type, the flight speed may be set so that the unmanned aerial vehicle 30 can fly at a preset speed or less.

도 12 및 도 13을 참조하면, 경로 설정 인터페이스(130)는 표시된 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상에 촬영된 피사체의 종류 정보(im8c)를 표시할 수 있다. 만약, 지도 이미지(im8) 상에 강, 숲, 산, 도로, 바다 등이 존재하는 경우 해당 정보를 표시할 수 있다.Referring to FIGS. 12 and 13 , the route setting interface 130 may display a map image im8 matched with address information input in the displayed search window 111 . The path setting interface 130 may display type information im8c of a photographed subject on the displayed map image im8. If rivers, forests, mountains, roads, seas, etc. exist on the map image im8, corresponding information may be displayed.

경로 설정 인터페이스(130)는 피사체의 종류 정보(im8c) 내의 복수의 항목들 중 어느 하나의 선택을 수신할 수 있다. 예시적으로 사용자는 “강' 항목을 선택할 수 있다. 경로 설정 인터페이스(130)는 피사체의 종류 정보(im8c) 내의 복수의 항목들 중 어느 하나의 선택에 응답하여 표시된 지도 이미지(im8) 상에서 선택된 항목과 매칭되는 영역에 그리드 맵(gl)을 표시할 수 있다. 일부 실시예에서 그리드 맵(gl)은 복수의 부분 그리드들로 분할되어 표시될 수 있다. 복수의 부분 그리드들은 전체로서 하나의 그리드 맵(gl)을 구성할 수 있다.The route setting interface 130 may receive selection of any one of a plurality of items in the subject type information im8c. For example, the user may select a “river” item. The route setting interface 130 may display the grid map gl in an area matching the selected item on the displayed map image im8 in response to selection of any one of a plurality of items in the subject type information im8c. have. In some embodiments, the grid map gl may be divided into a plurality of partial grids and displayed. A plurality of partial grids may constitute one grid map gl as a whole.

경로 설정 인터페이스(130)는 지도 이미지(im8) 상에 맵핑된 그리드 맵(gl)의 총 면적 정보를 표시할 수 있다. 또한, 사용자는 해당 그리드 맵(gl) 상에서 무인비행체(30)가 비행하여 행할 작업의 종류를 선택할 수 있다.The route setting interface 130 may display total area information of the grid map gl mapped on the map image im8. In addition, the user may select the type of work to be performed by the unmanned aerial vehicle 30 flying on the corresponding grid map gl.

경로 설정 인터페이스(130)는 그리드 맵(gl)을 지도 이미지(im8)와 중첩되지 않는 영역에 표시(그리드 맵 비행 경로 정보)할 수 있다. 또한, 경로 설정 인터페이스(130)는 그리드 맵(gl)을 따라 무인비행체(30)가 비행하는 경로를 설정할 수 있다. 그리고, 경로 설정 인터페이스(130)는 비행 경로를 포함하는 그리드 맵인 편집용 그리드 맵(egp)을 표시할 수 있다.The route setting interface 130 may display the grid map gl in an area that does not overlap with the map image im8 (grid map flight route information). Also, the path setting interface 130 may set a path along which the unmanned aerial vehicle 30 flies along the grid map gl. Also, the route setting interface 130 may display a grid map (egp) for editing, which is a grid map including flight routes.

편집용 그리드 맵(egp) 상에는 기본적으로 설정된 디폴트 비행 경로가 표시될 수 있다. 경로 설정 인터페이스(130)는 편집용 그리드 맵(egp) 상에서 표시된 비행 경로의 일 지점의 선택 및 선택의 이동에 응답하여 그리드 맵(egp)의 범위 내에서 경로를 변경할 수 있도록 허용할 수 있다.A default flight path set by default may be displayed on the grid map (egp) for editing. The route setting interface 130 may allow a route to be changed within the range of the grid map egp in response to selection and movement of a point of the flight route displayed on the grid map egp for editing.

일부 실시예에서, 복수의 부분 그리드들 각각에는 그리드 포인터(glp)가 표시될 수 있다. 경로 설정 인터페이스(130)는 부분 그리드들 각각에 표시된 그리드 포인터(glp)들 중 어느 하나의 선택에 응답하여 선택되 그리드 포인터(glp)가 속한 부분 그리드를 표시하고, 표시된 부분 그리드 내에서 세부적인 비행 경로를 설정할 수 있도록 하는 인터페이스를 추가로 제공할 수도 있다.In some embodiments, a grid pointer glp may be displayed on each of the plurality of partial grids. The route setting interface 130 displays a partial grid to which the selected grid pointer glp belongs in response to selection of any one of the grid pointers glp displayed on each of the partial grids, and a detailed flight within the displayed partial grid. An interface that enables route setting may be additionally provided.

경로 설정 인터페이스(130)는 편집용 그리드 맵(egp) 상에서의 비행 경로 정보에 기초하여 총 비행 거리와 예상 비행 시간 정보 등을 표시할 수 있다.The route setting interface 130 may display total flight distance and estimated flight time information based on flight route information on the editing grid map (egp).

컴퓨팅 장치(200)는 도 10, 도 11 및 도 13에서 설정된 비행 경로 및 해당 비행 경로가 설정된 지도 이미지 데이터에 기초하여 자율항법지도 데이터를 생성할 수 있다. 무인비행체(30)는 자율항법지도 데이터에 기초하여 자율 비행하며 자율 방제를 수행할 수 있다. 다른 측면에서, 컴퓨팅 장치(200)는 자율항법지도 데이터에 기초하여 무인비행체(30)의 제어 명령 신호를 실시간 전송하여 무인비행체(30)가 제어 명령 신호에 따라 자율 비행하며 자율 방제를 수행할 수 있도록 할 수 있다.The computing device 200 may generate autonomous navigation map data based on the flight path set in FIGS. 10 , 11 , and 13 and the map image data on which the flight path is set. The unmanned aerial vehicle 30 may autonomously fly based on autonomous navigation map data and perform autonomous control. In another aspect, the computing device 200 transmits a control command signal of the unmanned aerial vehicle 30 in real time based on the autonomous navigation map data so that the unmanned aerial vehicle 30 can autonomously fly and perform autonomous control according to the control command signal. can make it

일부 실시예에 따르면, 도 10에서 경로 설정 인터페이스(130)는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체(30)가 비행할 수 있는 복수의 레이어를 자동으로 설정할 수 있다.According to some embodiments, in FIG. 10 , the route setting interface 130 may automatically set a plurality of layers through which the unmanned aerial vehicle 30 can fly in response to selection of the flight layer setting affordance.

상세하게, 컴퓨팅 장치(200)는 미리 저장된 현재 표시된 지도 이미지(im8) 상의 지표면을 포착하는 표면 스캐닝 데이터로부터 지표면 상의 피사체의 포인트 클라우드를 획득할 수 있다. 표면 스캐닝 데이터는 무인비행체(30)에 탑재된 표면 스캐닝 장치에 의해 스캐닝되어 수집된 데이터가 될 수 있다.In detail, the computing device 200 may obtain a point cloud of a subject on the ground surface from surface scanning data capturing the ground surface on the currently displayed map image im8 stored in advance. The surface scanning data may be data scanned and collected by a surface scanning device mounted on the unmanned aerial vehicle 30 .

무인비행체(30)의 자율비행을 용이하게 하는 포인트 클라우드는 객체의 특정 지점의 추출된 높이 값을 연결하여 공간상의 레이어로 사용된다. 여기서의 포인트 클라우드는 지형 고도 데이터를 이용하여 식별된 물체의 특정 지점의 높이 값을 추출하고, 추출된 특정 높이 값을 연결하여 무인 비행체(30)의 자율 비행을 용이하게 하는 영역 및 고도를 공간상의 레이어로 형성하도록 하는 객체의 포인트이다. 또한, 공간상에 형성된 복수의 레이어들은 서로 독립적이고, 레이어는 지면과 수평한 면을 가지는 것으로 볼 수 있다. 따라서, 무인비행체(30)가 어느 하나의 레이어 상에서 이동한다는 것은 무인비행체(30)의 고도가 유지됨을 의미한다.The point cloud that facilitates the autonomous flight of the unmanned aerial vehicle 30 is used as a spatial layer by connecting extracted height values of specific points of an object. Here, the point cloud extracts a height value of a specific point of an object identified using terrain altitude data, and connects the extracted specific height value to determine an area and altitude that facilitates autonomous flight of the unmanned aerial vehicle 30 in space. It is the point of the object to be formed as a layer. In addition, a plurality of layers formed in space are independent of each other, and the layers may be regarded as having a plane horizontal to the ground. Therefore, moving the unmanned aerial vehicle 30 on any one layer means that the altitude of the unmanned aerial vehicle 30 is maintained.

또한, 실시예는 레이어에 구축된 무인비행체(30)의 비행을 위한 자율항법지도를 GPS 또는 위치 좌표 보정 장치의 정보를 통해 안전 기준 내에서 무인비행체(30)와 동기화시켜 무인비행체(30)에 적용 가능한 공간지도로 형성할 수 있다.In addition, the embodiment synchronizes the autonomous navigation map for the flight of the unmanned aerial vehicle 30 built in the layer with the unmanned aerial vehicle 30 within a safety standard through GPS or information from a position coordinate correction device, so that the unmanned aerial vehicle 30 It can be formed as an applicable spatial map.

일부 실시예에서, 무인비행체(30)에 대한 임무에 따라 무인비행체(30)가 비행할 수 있는 지표면으로부터 일정 고도 값을 갖는 레이어를 설정하고, 설정된 레이어 상에서 무인비행체(30)의 항로인 비행 경로를 설정하며, 설정된 레이어와 레이어 상의 비행 경로 정보를 포함하는 자율 항법 지도를 구축할 수 있다. 여기서, 항로는 항로의 지표면에 존재하는 지상물의 위치를 포함하는 적어도 둘 이상의 웨이포인트들로 구성될 수 있다. 그리고 무인비행체(30)의 식별 정보에 따라 임무 별 자율 항법 지도를 구축할 수도 있다. 웨이포인트는 무인비행체(30)에게 할당된 임무를 수행할 수 있는 지점이다. 이에 따라 비가시권의 자율비행 지도를 제공하여 지상물 등으로 고도 값을 일정하게 유지하기 어려운 지역에 대한 조종사의 가시 범위 내 운영의 한계를 극복할 수 있다. 또한, 지표 스캐닝 및 영상 촬영 데이터로부터 자율비행 공간을 레이어로 형상화하고 형상화된 레이어에 데이터를 정합하여 고도 값이 반영된 무인비행체(30) 비행을 위한 지도를 제작할 수 있다.In some embodiments, a layer having a certain altitude value from the ground surface on which the unmanned aerial vehicle 30 can fly is set according to a mission for the unmanned aerial vehicle 30, and a flight path of the unmanned aerial vehicle 30 on the set layer. , and an autonomous navigation map including set layers and flight path information on the layers can be built. Here, the route may be composed of at least two or more waypoints including the location of ground objects existing on the surface of the route. In addition, an autonomous navigation map for each mission may be constructed according to the identification information of the unmanned aerial vehicle 30 . The waypoint is a point at which the mission assigned to the unmanned aerial vehicle 30 can be performed. Accordingly, by providing an autonomous flight map in an invisible area, it is possible to overcome the limitations of operation within the pilot's visual range for areas where it is difficult to maintain a constant altitude value with ground objects. In addition, a map for the flight of the unmanned aerial vehicle 30 in which altitude values are reflected may be produced by shaping the autonomous flight space into layers from ground scanning and image capture data and matching the data to the shaped layers.

일부 실시예에서, 레이어 상의 항로인 비행 경로의 구체적인 경로 정보는 무인비행체(30)에게 할당된 작업에 따라 미리 정해진 다양한 비행 경로 중 어느 하나로 결정될 수 있다. 또한, 다양한 비행 경로 중 어느 하나로 결정되는 경우라고 하여도 경로의 세부적인 사항은 사용자가 경로 설정 인터페이스(130)를 통하여 직접 설정하는 것이 허용될 수 있다.In some embodiments, specific path information of a flight path, which is an airway on a layer, may be determined as one of various flight paths predetermined according to tasks assigned to the unmanned aerial vehicle 30 . In addition, even if it is determined as one of various flight routes, it may be allowed for the user to directly set details of the route through the route setting interface 130 .

한편, 컴퓨팅 장치(200)는 지형 고도 데이터들 중 수치 표면 모형(Digital Surface Model, DSM)이나 수치 지형 모델(Digital Terrain Model, DTM)을 활용하여 식별부에서 식별된 피사체의 특정 지점의 높이 값을 추출할 수 있다. DSM 데이터와 DTM 데이터는 각 국가의 지리 정보를 데이터베이스화 하여 구축하고 있는 정부 기관(예컨대, 한국의 경우에는 국토지리정보원)이나 항공측량 회사로부터 획득될 수 있는 데이터이다. 컴퓨팅 장치(200)는 추출된 피사체의 특정 지점의 높이 값을 연결하여 공간에 무인비행체(30)의 자율비행이 가능한 면적과 고도를 레이어로 형상화할 수 있고, 공간에 형상화된 레이어에 무인비행체(30)에게 할당된 작업의 종류 정보, 비행 고도 제한 데이터, 정밀수치 지도, 및 군사보안지역 또는 비행금지 구역을 회피하는 항로 정보 중 적어도 어느 하나 이상에 기초하거나 이들을 정합하여 공간에 무인 비행체의 비행을 위한 구체적인 비행 경로를 설정함으로써 자율항법 지도를 구성하는 레이어를 구축할 수 있다.Meanwhile, the computing device 200 uses a Digital Surface Model (DSM) or a Digital Terrain Model (DTM) among terrain elevation data to obtain a height value of a specific point of the subject identified by the identification unit. can be extracted. DSM data and DTM data are data that can be acquired from a government agency (for example, the National Geographic Information Institute in Korea) or an aerial surveying company that is constructing and constructing a database of geographic information of each country. The computing device 200 connects the height value of a specific point of the extracted subject to shape the area and altitude at which the unmanned aerial vehicle 30 can autonomously fly in space as a layer, and the unmanned aerial vehicle 30 in the layer shaped in the space ( 30) Based on at least one or more of information on the type of task assigned to, flight altitude limit data, precise numerical map, and route information to avoid the military security area or no-fly zone, or by matching them, the flight of the unmanned aerial vehicle in space By setting a specific flight path for each flight, it is possible to build a layer that composes an autonomous navigation map.

자율항법지도의 데이터는 무인비행체(30)가 자율 비행할 지역 상에는 복수의 레이어에 대한 정보를 포함한다. 예시적으로, 서로 다른 고도의 제1 및 제2 레이어에 대한 정보 및 각 레이어 상에서의 무인비행체(30)의 비행 경로 정보가 맵핑될 수 있다. 예시적으로, 제1 레이어의 비행 경로를 따라 제1 무인비행체가 제1 레이어에 따른 고도를 유지하면서 자율 비행할 수 있고, 제2 레이어의 비행 경로를 따라 제2 무인비행체가 제2 레이어에 따른 고도를 유지하면서 자율 비행할 수 있다. 여기서의 비행 경로 정보는 무인비행체(30)에게 할당된 작업을 수행하는데 최적의 경로 정보가 될 수 있다.The data of the autonomous navigation map includes information on a plurality of layers in an area where the unmanned aerial vehicle 30 will fly autonomously. For example, information on the first and second layers at different altitudes and flight path information of the unmanned aerial vehicle 30 on each layer may be mapped. Illustratively, along the flight path of the first layer, the first unmanned aerial vehicle may autonomously fly while maintaining the altitude according to the first layer, and along the flight path of the second layer, the second unmanned aerial vehicle may fly along the flight path of the second layer. It can fly autonomously while maintaining altitude. The flight path information herein may be optimal path information for performing tasks assigned to the unmanned aerial vehicle 30 .

일부 실시예에 따르면, 도 10에서 경로 설정 인터페이스(130)는 장애물 회피 시뮬레이션 어포던스의 선택에 응답하여 도 14에서와 같은 장애물 회피 시뮬레이션 인터페이스(140)를 표시할 수 있다.According to some embodiments, the path setting interface 130 in FIG. 10 may display the obstacle avoidance simulation interface 140 as shown in FIG. 14 in response to selection of the obstacle avoidance simulation affordance.

도 14는 도 15에서 설명할 경로 포인트 사이의 직선 거리의 설정 및 전술한 경로 설정 인터페이스에서 비행 경로의 설정이 완료된 상태에서의 무인비행체가 장애물을 회피하는 것을 시뮬레이션하는 것을 설명하기 위한 것이다.FIG. 14 is for explaining simulation of avoiding obstacles by an unmanned aerial vehicle in a state in which the setting of the straight-line distance between route points to be described in FIG. 15 and the setting of the flight route in the above-described route setting interface are completed.

도 14를 참조하면, 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 장애물 종류 선택 어포던스의 선택에 응답하여 다양한 장애물 정보를 표시할 수 있고, 표시된 장애물 항목 중 어느 하나의 선택에 응답하여 선택된 장애물을 표시할 수 있다. 또한, 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 표시된 장애물의 선택 및 선택의 이동에 응답하여 장애물의 위치를 변경시킬 수 있다. 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 시뮬레이션 실행 어포던스의 선택에 응답하여 무인비행체(30)가 비행 경로 상에서 자율항법지도 상에서 확인되지 않은 장애물이 존재하는 경우 다른 레이어로 회피 이동하면서 자율 비행을 유지하는 것을 표시하는 시뮬레이션을 실행할 수 있다.Referring to FIG. 14 , the first obstacle avoidance simulation interface 140a may display various obstacle information in response to selection of an obstacle type selection affordance, and may display a selected obstacle in response to selection of one of the displayed obstacle items. can Also, the first obstacle avoidance simulation interface 140a may change the position of the obstacle in response to the displayed obstacle selection and movement of the selection. The first obstacle avoidance simulation interface 140a maintains autonomous flight while avoiding moving to another layer when an unidentified obstacle exists on the autonomous navigation map on the flight path of the unmanned aerial vehicle 30 in response to the selection of the simulation execution affordance. You can run a simulation to show that

제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 도시된 바와 같이, 제1 레이어(L1) 상의 비행 경로를 형성하는 복수의 제1 경로 포인트(LP1)가 도시되어 있다. 제1 경로 포인트(LP1)들을 서로 연결하면 제1 레이어(L1) 상에서의 제1 비행 경로가 된다. 그리고, 제2 레이어(L2) 상의 비행 경로를 형성하는 복수의 제2 경로 포인트(LP2)가 도시되어 있고, 제2 경로 포인트(LP2)들을 서로 연결하면 제2 레이어(L2) 상에서의 제2 비행 경로가 된다. 무인비행체(30)는 자신의 비행 경로가 설정된 제2 레이어(L2) 상의 제2 비행 경로를 따라 자율 비행하다 전방에 장애물(도시된 예에 따르면, 나무)을 감지하면, 제2 레이어(L2)보다 고도가 높은 상위 레이어인 제1 레이어(L1)로 상승 비행한 후, 상위 레이어에서 경로 포인트를 따라 비행하다 다시 제1 레이어(L1)로 하강 비행한 후 제1 레이어(L1) 상의 경로 포인트에 의한 비행 경로를 따라 자율 비행할 수 있다. 무인비행체(30)는 최초 자신에게 할당되지 않은 레이어인 제1 레이어(L1) 상에서 자율 비행할 때는 제2 레이어(L2) 상의 제2 경로 포인트(LP2)가 수직 방향으로 제1 레이어(L1) 상에 매핑된 대체 포인트(RP)들을 따라 비행할 수 있다. 즉, 무인비행체(30)는 제2 레이어(L2)의 N번째 제2 경로 포인트에 도달한 후 제1 레이어(L1)로 상승 비행할 때 N+1번째 제2 경로 포인트가 수직 방향으로 맵핑된 제1 레이어(L1) 상의 대체 포인트(RP)로 이동할 수 있다. 여기서의 N번째 제2 경로 포인트는 무인비행체(30)가 장애물을 인식한 시점에서의 앞으로 경유할 첫번째 제2 경로 포인트가 될 수 있다. 그리고, 무인비행체(30)가 나머지 대체 포인트(RP)을 따라 제1 레이어(L1) 상에서 이동할 수 있다. 그리고, 무인비행체(30)가 제1 레이어(L1)의 마지막 대체 포인트에 도달한 후 제2 레이어(L2)로 하강 비행할 때, 마지막 대체 포인트를 맵핑한 제2 레이어(L2) 상의 제2 경로 포인트의 다음번 제2 경로 포인트로 이동할 수 있다. 그리고, 무인비행체(30)는 제2 레이어(L2) 상의 나머지 제2 경로 포인트를 따라 자율 비행할 수 있다. 일부 실시예에서, 무인비행체(30)가 제1 레이어(L1) 상에서 대체 포인트(RP)를 따라 이동할 때 무인비행체(30)는 제2 레이어(L2) 상에서 이동시 감지했던 장애물이 더 이상 자신의 하측 방향에서 감지되지 않는다고 판단할 때까지 대체 포인트(RP)를 따라 이동하는 것으로 시뮬레이션될 수 있다. 실시예는, 갑작스러운 장애물이나 자율항법지도 상에 반영되지 않은 장애물이거나 자율항법지도 상에 반영되어 있었으나 형태나 크기가 가변적인 피사체로 인하여 비행 경로 상에 장애물로 취급될 수 있는 장애물을 인식한 경우, 다른 레이어로 이동하고, 다른 레이어 상에서도 본래의 무인비행체(30)에게 할당된 레이어 상에서의 비행 경로와 동일한 경로로 다른 레이어 상에서도 비행하도록 하여 비행 경로를 형태를 최대한 유지하며 자율 비행할 수 있도록 한다. 한편, 무인비행체(30)가 장애물을 인식한 경우, 상위 레이어로 이동하는 것으로 설명하였으나, 이에 제한되는 것은 아니고 하위 레이어로 이동할 수 있고, 이 경우, 본래 이동하던 레이어 상의 경로 포인트는 하측 방향에 위치한 하위 레이어 상에 맵핑되어 하위 레이어 상에 대체 포인트가 설정될 수 있다. As shown in the first obstacle avoidance simulation interface 140a, a plurality of first path points LP1 forming a flight path on the first layer L1 are shown. When the first path points LP1 are connected to each other, a first flight path on the first layer L1 is formed. In addition, a plurality of second path points LP2 forming a flight path on the second layer L2 are shown, and when the second path points LP2 are connected to each other, the second flight on the second layer L2 becomes a path When the unmanned air vehicle 30 autonomously flies along the second flight path on the second layer L2 where its flight path is set, and detects an obstacle (a tree in the illustrated example) in front, the second layer L2 After ascending to the first layer (L1), which is a higher layer at a higher altitude, flying along the route point in the upper layer, descending to the first layer (L1) again, and then reaching the route point on the first layer (L1) It can fly autonomously along the flight path of When the unmanned aerial vehicle 30 autonomously flies on the first layer L1, which is a layer not assigned to itself, the second path point LP2 on the second layer L2 is located on the first layer L1 in the vertical direction. You can fly along the replacement points (RPs) mapped to. That is, when the unmanned aerial vehicle 30 reaches the N-th second path point of the second layer (L2) and then ascends to the first layer (L1), the N+1-th second path point is mapped in the vertical direction. It may move to the replacement point RP on the first layer L1. Here, the N-th second path point may be the first second path point that the unmanned aerial vehicle 30 will pass through at the time of recognizing the obstacle. Also, the unmanned aerial vehicle 30 may move on the first layer L1 along the remaining replacement points RP. And, when the unmanned aerial vehicle 30 descends to the second layer L2 after reaching the last replacement point of the first layer L1, the second path on the second layer L2 to which the last replacement point is mapped. It is possible to move to a second path point next to the point. In addition, the unmanned aerial vehicle 30 may autonomously fly along the remaining second path points on the second layer L2. In some embodiments, when the drone 30 moves along the replacement point RP on the first layer L1, the obstacle detected when the drone 30 moves on the second layer L2 is no longer on its lower side. It can be simulated to move along the replacement point RP until it is determined that it is not detected in the direction. In the embodiment, when recognizing an obstacle that can be treated as an obstacle on the flight path due to a sudden obstacle, an obstacle that is not reflected on the autonomous navigation map, or a subject whose shape or size is variable although it was reflected on the autonomous navigation map . On the other hand, when the unmanned aerial vehicle 30 recognizes an obstacle, it has been described as moving to an upper layer, but is not limited thereto and may move to a lower layer. In this case, the path point on the original moving layer is located in the lower direction. A replacement point may be set on the lower layer by being mapped on the lower layer.

장애물 회피 시뮬레이션 인터페이스(140)는 복수의 레이어 각각에서 복수의 무인비행체가 자율 비행하는 경우, 어느 하나의 무인비행체가 장애물 회피 비행 시 다른 무인비행체의 비행 경로의 수정에 관한 시뮬레이션을 제공할 수도 있다.When a plurality of unmanned aerial vehicles autonomously fly in each of a plurality of layers, the obstacle avoidance simulation interface 140 may provide a simulation of correction of a flight path of another unmanned aerial vehicle during an obstacle avoidance flight.

제2 장애물 회피 시뮬레이션 인터페이스(140b)에서 도시된 바와 같이, 제1 레이어(L1) 상의 제1 경로 포인트(LP1)를 따라 제1 무인비행체(30a)가 자율 비행하고, 제2 레이어(L2)의 제2 경로 포인트(LP2)를 따라 제2 무인비행체(30b)가 자율 비행한다고 가정하면, 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 설명한 바와 같이 제2 무인비행체(30b)는 장애물을 인식하면 자신에게 할당되지 않은 제1 레이어(L1) 상의 대체 포인트(RP)를 따라 비행하면서 장애물을 회피할 수 있다. 이 경우, 제1 레이어(L1) 상의 제1 경로 포인트(LP1)를 따라 자율 비행하는 제1 무인비행체(30a) 부분적으로 비행 경로가 변경될 수 있다. 제1 레이어(L1) 상에는 위험 영역 레이어(DA)가 설정될 수 있다. 위험 영역 레이어(DA)는 제1 레이어(L1)와 중첩될 수 있고, 대체 포인트(RP)를 지나는 가상의 평면이 될 수 있다. 그리고, 위험 영역 레이어(DA)의 모든 경계점은 모든 대체 포인트(RP)들과 미리 설정된 수평 거리만큼 이격되도록 위험 영역 레이어(DA)가 설정될 수 있다. 제1 레이어(L1) 상의 모든 제1 경로 포인트(LP1)들 중에서 위험 영역 레이어(DA)와 중첩되는 제1 경로 포인트는 제1 레이어(L1)의 상위 레이어(L0)로 맵핑되어 상위 레이어(L0) 상에는 제1 경로 포인트를 대체하는 또 다른 대체 포인트가 설정될 수 있다. 그리고, 제1 무인비행체(30a)는 상위 레이어(L0)로 이동하여 대체 포인트를 따라 비행할 수 있다. 상위 레이어(L0) 상의 대체 포인트의 설정 방법은 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 설명한 바와 같고, 제1 무인 비행체(30a)가 비행하는 방식 또한 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 무인비행체(30)가 비행하는 방식과 동일하게 적용될 수 있다. 실시예에서, 제1 무인비행체(30a)의 제1 레이어(L1) 상에서의 비행 경로 상에서는 장애물이 인식되지 않는다고 하여도, 다른 레이어 상의 무인비행체의 회피 기능에 따라 자신의 레이어(L1)에 다른 무인비행체가 진입하여 비행시 상호 충돌 문제가 발생하거나 다른 무인비행체를 장애물로 인식하게 될 수 있다. 따라서, 제1 무인비행체(30a) 또한 회피 기능을 할 수 있도록 하면서도 위험 영역으로 인식되는 범위를 고려하여 맵핑할 제1 무인비행체(30a)의 경로 포인트의 범위를 결정하여 다른 무인비행체와의 충돌 문제 등을 방지할 수 있다.As shown in the second obstacle avoidance simulation interface 140b, the first unmanned aerial vehicle 30a autonomously flies along the first path point LP1 on the first layer L1, and the second layer L2 Assuming that the second unmanned aerial vehicle 30b autonomously flies along the second path point LP2, as described in the first obstacle avoidance simulation interface 140a, when the second unmanned aerial vehicle 30b recognizes an obstacle, it Obstacles may be avoided while flying along the replacement point RP on the unallocated first layer L1. In this case, the flight path of the first unmanned aerial vehicle 30a autonomously flying along the first path point LP1 on the first layer L1 may be partially changed. A risk area layer DA may be set on the first layer L1. The risk area layer DA may overlap the first layer L1 and may be a virtual plane passing through the replacement point RP. Also, the danger area layer DA may be set such that all boundary points of the danger area layer DA are spaced apart from all replacement points RP by a predetermined horizontal distance. Among all the first path points LP1 on the first layer L1, the first path point overlapping the risk area layer DA is mapped to the upper layer L0 of the first layer L1 and is mapped to the upper layer L0. ), another replacement point that replaces the first path point may be set. Also, the first unmanned aerial vehicle 30a may move to the upper layer L0 and fly along the replacement point. The method of setting the alternative point on the upper layer (L0) is the same as described in the first obstacle avoidance simulation interface 140a, and the way the first unmanned aerial vehicle 30a flies is also described in the first obstacle avoidance simulation interface 140a. (30) can be applied in the same way as flying. In the embodiment, even if an obstacle is not recognized on the flight path on the first layer L1 of the first unmanned aerial vehicle 30a, another unmanned aerial vehicle in its own layer L1 according to the avoidance function of the unmanned aerial vehicle on another layer. When an air vehicle enters and flies, a mutual collision problem may occur or another unmanned air vehicle may be recognized as an obstacle. Therefore, while allowing the first unmanned aerial vehicle 30a to also perform an avoidance function, the range of path points of the first unmanned aerial vehicle 30a to be mapped is determined in consideration of the range recognized as a danger area, thereby solving the problem of collision with other unmanned aerial vehicles. etc. can be prevented.

사용자는 시뮬레이션을 통해서 설정된 비행 경로의 안정성을 테스트할 수 있고, 필요에 따라 비행 경로 수정하거나 경로 포인트들 간의 간격을 수정할 수 있다. The user can test the stability of the set flight path through simulation, and can modify the flight path or the spacing between path points as needed.

제1 및 제2 장애물 회피 시뮬레이션 인터페이스(140a, 140b) 각각은 비행 경로 확정 어포던스의 선택에 응답하여 장애물 인식 시 대체 포인트의 설정 방법 데이터, 복수의 무인비행체 비행 시의 위험 영역 레이어(DA)의 설정 방법 데이터를 포함하는 자동항법지도 데이터를 생성하고, 무인비행체(30)가 자동항법지도 데이터에 기초하여 자율 비행할 수 있도록 한다.Each of the first and second obstacle avoidance simulation interfaces 140a and 140b responds to the selection of the flight path determination affordance, and provides data on how to set alternative points when recognizing obstacles, and settings of a danger area layer DA when a plurality of unmanned aerial vehicles fly. Automatic navigation map data including method data is generated, and the unmanned aerial vehicle 30 is allowed to autonomously fly based on the automatic navigation map data.

도 15는 장애물의 인식과 다른 레이어로의 회피 비행 및 경로 포인트 간의 거리 정보의 설정 방법에 관한 인터페이스를 나타낸 것이다.15 illustrates an interface for a method of recognizing an obstacle, avoiding flight to another layer, and setting distance information between route points.

도 15에 도시된 레이어 상의 비행 경로는 장애물을 인식하지 못한 상태에서 최초 설정된 레이어 상의 비행 경로이다. The flight path on the layer shown in FIG. 15 is the flight path on the first layer set without recognizing the obstacle.

도 10에서 경로 설정 인터페이스(130)는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체(30)가 비행할 수 있는 복수의 레이어를 자동으로 형성한 후, 도 15에서와 같은 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)를 표시할 수 있다.In FIG. 10, the route setting interface 130 automatically forms a plurality of layers through which the unmanned aerial vehicle 30 can fly in response to the selection of the flight layer setting affordance, and then obtains distance information between route points as shown in FIG. 15. An interface 150 for setting may be displayed.

도 15를 참조하면, 레이어(L) 상의 비행 경로는 복수의 경로 포인트로 구성될 수 있다. 무인비행체(30)는 자신에게 할당된 레이어(L) 상의 경로 포인트(LP)를 경유하면서 비행 경로를 따라 비행하게 된다. 일부 실시예에서, 최인접한 경로 포인트 상호간의 최대 이격 거리는 미리 설정된 무인비행체(30)의 최대 속도, 미리 설정된 무인비행체(30)가 전방의 장애물의 존재를 인식하는 시점에서의 무인비행체(30)와 장애물 사이의 최소 이격 거리 값(rl)에 기초하여 결정될 수 있다. 여기서의 최소 이격 거리 값(rl)은 무인비행체(30)의 자체 성능에 따라서 달라지는 값으로 자율항법지도 설정 시 무인비행체(30)의 자체의 성능을 고려하여 미리 결정될 수 있다.Referring to FIG. 15, a flight path on a layer (L) may be composed of a plurality of path points. The unmanned aerial vehicle 30 flies along the flight path while passing through the path point LP on the layer L assigned thereto. In some embodiments, the maximum separation distance between the closest path points is the preset maximum speed of the unmanned aerial vehicle 30, the preset unmanned aerial vehicle 30 at the time when the preset unmanned aerial vehicle 30 recognizes the presence of an obstacle in front, and It may be determined based on the minimum separation distance value rl between obstacles. Here, the minimum separation distance value rl is a value that varies depending on the performance of the unmanned aerial vehicle 30, and may be determined in advance by considering the performance of the unmanned aerial vehicle 30 itself when setting the autonomous navigation map.

도 15의 (a)를 참조하면, 임의의 경로 포인트에서 다음 경로 포인트까지의 비행 거리(l1, l2, l3, l4, l5, l6)는 지속적으로 달라질 수 있다. 다만, 최인접한 경로 포인트 사이의 비행 거리(l1, l2, l3, l4, l5, l6)를 빗변으로 하는 직각삼각형을 고려할 수 있다. 이 때, 모든 직각삼각형의 밑변은 x1이 될 수 있다. 일부 실시예에서, 모든 직각삼각형의 밑변의 값은 동일하게 경로 포인트가 설정될 수 있다. 그리고, 직각삼각형에서 최인접한 두개의 경로 포인트 중 출발 지점에 대응하는 경로 포인트를 꼭지점하고 해당 꼭지점의 각도를 tehta로 정의한다. 그리고, 여기서의 x1은 “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)” 값이 될 수 있다. 즉, “최인전합 경로 포인트 사이의 무인비행체의 비행거리"와 cos(theta)의 곱으로 정의될 수 있다.Referring to (a) of FIG. 15 , flight distances (l1, l2, l3, l4, l5, l6) from an arbitrary route point to the next route point may continuously vary. However, a right triangle having the hypotenuse of the flight distance (l1, l2, l3, l4, l5, l6) between the nearest path points may be considered. At this time, the bases of all right triangles can be x1. In some embodiments, the path points may be set to have the same base value of all right triangles. Then, among the two closest path points in the right triangle, a path point corresponding to the starting point is defined as a vertex, and an angle of the vertex is defined as tehta. In addition, x1 here may be a value of “flying distance of the UAV between points of the shortest combined path” * “cos(theta)”. In other words, it can be defined as the product of “the flight distance of the UAV between the most inclusive path points” and cos(theta).

무인비행체(30)가 장애물을 인식할 때의 무인비행체(30)와 장애물 사이의 거리를 rl로 정의한다. rl은 레이어(L)의 길이 방향과 수평한 방향으로 무인비행체(30)와 장애물 사이의 거리로 정의할 수 있다.The distance between the unmanned aerial vehicle 30 and the obstacle when the unmanned aerial vehicle 30 recognizes the obstacle is defined as rl. rl may be defined as a distance between the unmanned aerial vehicle 30 and an obstacle in the longitudinal direction and the horizontal direction of the layer (L).

무인비행체(30)는 장애물의 효율적인 회피를 위해서 무인비행체(30)와 장애물 사이의 최소 충돌 방지 거리(ep)에 도달하기 전에 회피 비행을 해야 한다고 가정한다. 최소 충돌 방지 거리(ep)는 레이어(L)의 길이 방향과 수평한 방향으로 무인비행체(30)와 장애물 사이의 거리로 정의할 수 있다.It is assumed that the unmanned aerial vehicle 30 must fly avoidance before reaching the minimum collision avoidance distance ep between the unmanned aerial vehicle 30 and the obstacle for efficient avoidance of the obstacle. The minimum anti-collision distance ep may be defined as a distance between the unmanned aerial vehicle 30 and an obstacle in the longitudinal direction and the horizontal direction of the layer L.

무인비행체(30)가 l1 비행 거리에 대응하는 경로로 이동하는 중에 장애물을 인식하면 앞으로 경유할 경로 포인트에서 회피 비행을 할 수 있다. 회피 비행이 개시되는 경로 포인트와 장애물 사이의 직선 거리는 최소 충돌 방지 거리(ep)보다 크기 때문에 무인비행체(30)와 장애물의 충돌 문제가 발생되지 않고 안전하게 회피 비행을 할 수 있다. If an obstacle is recognized while the unmanned aerial vehicle 30 is moving along a path corresponding to the 11 flight distance, avoidance flight may be performed at a path point to be passed through in the future. Since the straight-line distance between the path point at which the avoidance flight is initiated and the obstacle is larger than the minimum collision avoidance distance (ep), the avoidance flight can be safely performed without a collision problem between the unmanned aerial vehicle 30 and the obstacle.

도 15의 (b)를 참조하면, “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)”값인 x2는 (a)에서의 x1보다는 큰 값을 가진다는 것을 알 수 있다. 이 경우, 무인비행체(30)가 l1 비행 거리에 대응하는 경로로 이동하는 중에 장애물을 인식하면 앞으로 경유할 경로 포인트에서 회피 비행을 할 수 있다. 회피 비행이 개시되는 경로 포인트와 장애물 사이의 직선 거리는 최소 충돌 방지 거리(ep)보다 작기 때문에 무인비행체(30)가 회피 비행이 개시되는 경로 포인트에서 상위나 하위 레이어로 회피 비행시 장애물의 충돌 문제가 발생할 수 있다. 따라서, “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)”의 최대치를 제한함으로써 예상치 못한 장애물에 대한 안전한 회피 비행이 가능하도록 한다. 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)는 사용자로 하여금 최인접한 경로 포인트 간의 최소 거리(x1)과 최대 거리(x2)를 조정할 수 있도록 한다. 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)는 시뮬레이션 어포던스의 선택에 응답하여 설정된 최인접한 경로 포인트 간의 최소 거리(x1)과 최대 거리(x2)에 기초하여 미리 설정된 비행 경로를 구성하는 경로 포인트들 상호간의 거리를 조절하고, 무인비행체(30)가 전방의 장애물의 존재를 인식하는 시점에서의 무인비행체(30)와 장애물 사이의 최소 이격 거리 값(rl), 최소 충돌 방지 거리(ep) 및 비행 경로 등을 표시하여 사용자로 하여금 경로 포인트 사이의 최대 및 최소 이격 거리를 확인할 수 있도록 한다. 사용자는 최대 및 최소 이격 거리에 기초하여 세부적인 비행 경로를 설정할 수 있다. 따라서, 갑작스러운 장애물을 고려하면서도 비행 경로 설정의 자유도를 높일 수 있다.Referring to (b) of FIG. 15 , it can be seen that x2, which is the value of “flight distance of the UAV between the closest merge path points” * “cos(theta)”, has a larger value than x1 in (a). In this case, if the unmanned aerial vehicle 30 recognizes an obstacle while moving on a path corresponding to the 11 flight distance, avoidance flight may be performed at a path point to be passed through in the future. Since the straight-line distance between the path point at which the avoidance flight is initiated and the obstacle is smaller than the minimum collision avoidance distance (ep), the obstacle collision problem occurs when the unmanned aerial vehicle 30 makes an avoidance flight from the path point at which the avoidance flight is initiated to an upper or lower layer. can happen Therefore, by limiting the maximum value of the "flying distance of the UAV between the closest matching path points" * "cos(theta)", safe avoidance flight against unexpected obstacles is possible. The interface 150 for setting distance information between route points allows the user to adjust the minimum distance (x1) and maximum distance (x2) between the nearest route points. The interface 150 for setting the distance information between route points configures a preset flight route based on the minimum distance (x1) and maximum distance (x2) between the nearest route points set in response to the selection of the simulation affordance. The distance between them is adjusted, and the minimum separation distance value (rl) between the unmanned aerial vehicle 30 and the obstacle at the time when the unmanned aerial vehicle 30 recognizes the presence of an obstacle in front, the minimum anti-collision distance (ep), and A flight route, etc. is displayed so that the user can check the maximum and minimum separation distance between route points. Users can set detailed flight routes based on maximum and minimum separation distances. Therefore, it is possible to increase the degree of freedom in setting a flight path while considering sudden obstacles.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. A hardware device may be modified with one or more software modules to perform processing according to the present invention and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between the components shown in the drawings are examples of functional connections and / or physical or circuit connections, which can be replaced in actual devices or additional various functional connections, physical connection, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, the detailed description of the present invention described has been described with reference to preferred embodiments of the present invention, but those skilled in the art or those having ordinary knowledge in the art will find the spirit of the present invention described in the claims to be described later. And it will be understood that the present invention can be variously modified and changed without departing from the technical scope. Therefore, the technical scope of the present invention is not limited to the contents described in the detailed description of the specification, but should be defined by the claims.

Claims (6)

컴퓨팅 장치에서 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램이 실행되어 유저 인터페이스를 표시하는 단계;
수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및
상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고,
무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하고,
상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및
상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상의 복수의 지점의 선택에 응답하여 선택된 지점을 연결하는 비행 경로를 설정하고, 설정된 비행 경로를 따라 무인비행체가 이동하며 촬영한 영상을 재생하는 단계;를 더 포함하고,
상기 경로 설정 인터페이스 상에서 설정된 무인비행체의 비행 속도에 기초하여 영상의 재생 속도가 변경되고,
상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상에 촬영된 피사체의 종류 정보를 표시하는 단계;
상기 종류 정보 내의 복수의 항목 중 어느 하나의 선택에 응답하여 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 내에서 선택된 항목에 매칭되는 영역에 그리드 맵을 표시하는 단계;
상기 그리드 맵 내에서 무인비행체의 비행 경로를 설정 및 수정할 수 있도록 하는 편집용 그리드 맵을 표시하는 단계; 및
상기 그리드 맵은 복수의 부분 그리드로 구성되고, 상기 복수의 부분 그리드들 중 어느 하나의 선택에 응답하여 선택된 부분 그리드 내의 세부 비행 경로의 설정 및 수정을 허용하는 인터페이스를 제공하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.
Displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device;
displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and
Including; displaying control status, flight path, and state information of the unmanned aerial vehicle of the selected work area among the plurality of work areas,
displaying at least one of image information obtained by capturing the selected work area while the UAV is flying, route information on a path the UAV has already flown along a flight path, and information on a current location of the UAV within the selected work area;
displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and
In response to selection of a plurality of points on the map image displayed on the route setting interface, setting a flight path connecting the selected points, and reproducing the captured image while the UAV moves along the set flight path; do,
The reproduction speed of the image is changed based on the flight speed of the unmanned aerial vehicle set on the route setting interface;
displaying type information of a photographed subject on a map image displayed on the route setting interface;
displaying a grid map in an area matching the selected item in the map image displayed on the route setting interface in response to selection of any one of a plurality of items in the type information;
displaying a grid map for editing allowing the flight path of the unmanned aerial vehicle to be set and modified within the grid map; and
The grid map is composed of a plurality of partial grids, and providing an interface allowing setting and modification of detailed flight paths in the selected partial grid in response to selection of any one of the plurality of partial grids; further comprising
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
제1 항에 있어서,
상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하는 단계; 및
상기 표시된 지적도 이미지 상의 일 지점의 선택에 응답하여 선택된 지점을 무인비행체가 촬영한 이미지를 상기 선택된 일 지점에 중첩하여 표시하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.
According to claim 1,
displaying, in the user interface, a cadastral map image matching the searched address in response to selection of the cadastral map affordance; and
Responding to the selection of a point on the displayed cadastral map image, displaying an image taken by an unmanned aerial vehicle of the selected point superimposed on the selected point;
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
제1 항에 있어서,
상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하고, 무인비행체가 표시된 지적도 이미지 상의 지역을 촬영한 이미지를 상기 지적도 이미지와 중첩하여 표시하는 단계; 및
상기 촬영한 이미지와 상기 지적도 이미지가 중첩되지 않는 영역의 선택에 응답하여 선택된 지점을 촬영한 이미지를 불러드려 상기 중첩되지 않는 영역에 정합하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.
According to claim 1,
displaying, by the user interface, a cadastral map image matching the searched address in response to selection of the cadastral map affordance, and overlapping and displaying an image of a region on the cadastral map image on which the unmanned aerial vehicle is displayed; and
Responding to selection of an area where the captured image and the cadastral map image do not overlap, loading an image of a selected point and matching the selected area to the non-overlapping area
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
삭제delete 삭제delete 컴퓨팅 장치에서 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램이 실행되어 유저 인터페이스를 표시하는 단계;
수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및
상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고,
무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하고,
상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및
상기 경로 설정 인터페이스는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체가 비행할 수 있는 복수의 레이어를 설정하는 단계;를 더 포함하고,
상기 복수의 레이어를 설정하는 단계는, 표면 스캐닝 데이터로부터 피사체들의 포인트 클라우드를 획득하고, 상기 포인트 클라우드의 분석에 기초하여 상기 피사체들을 식별하고, 포인트 클라우드의 분석에 기초하여 상기 피사체들의 특정 포인트들을 연결하는 복수의 레이어를 설정하여, 상기 복수의 레이어 중 어느 하나의 레이어 상에서 상기 무인비행체가 자율 주행 가능하도록 하는 비행 경로를 설정하도록 하고,
상기 무인비행체가 비행 경로 상에서 장애물을 인식하면 상기 무인비행체에게 할당된 레이어와 다른 레이어로 회피 이동하되 상기 무인비행체에게 할당된 레이어 상에서의 비행 경로의 형태를 유지하며 상기 다른 레이어 상에서 비행하는 것을 시뮬레이션하는 장애물 회피 시뮬레이션 인터페이스를 제공하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.
Displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device;
displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and
Including; displaying control status, flight path, and state information of the unmanned aerial vehicle of the selected work area among the plurality of work areas,
displaying at least one of image information obtained by capturing the selected work area while the UAV is flying, route information on a path the UAV has already flown along a flight path, and information on a current location of the UAV within the selected work area;
displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and
The route setting interface further comprises setting a plurality of layers through which the unmanned aerial vehicle can fly in response to selection of a flight layer setting affordance;
The setting of the plurality of layers may include obtaining a point cloud of objects from surface scanning data, identifying the objects based on the analysis of the point cloud, and connecting specific points of the objects based on the analysis of the point cloud. By setting a plurality of layers to set a flight path that allows the unmanned aerial vehicle to autonomously travel on any one of the plurality of layers,
When the UAV recognizes an obstacle on the flight path, avoid moving to a layer other than the layer assigned to the UAV, but maintain the shape of the flight path on the layer assigned to the UAV and simulate flying on the other layer providing an obstacle avoidance simulation interface; further comprising
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
KR1020210125253A 2021-09-17 2021-09-17 A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor KR102467859B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210125253A KR102467859B1 (en) 2021-09-17 2021-09-17 A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210125253A KR102467859B1 (en) 2021-09-17 2021-09-17 A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor

Publications (1)

Publication Number Publication Date
KR102467859B1 true KR102467859B1 (en) 2022-11-16

Family

ID=84235828

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210125253A KR102467859B1 (en) 2021-09-17 2021-09-17 A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor

Country Status (1)

Country Link
KR (1) KR102467859B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157892A (en) * 2016-02-29 2017-09-07 キヤノン株式会社 Display device and control method thereof
KR102090611B1 (en) * 2019-10-10 2020-03-18 경남도립거창대학산학협력단 Disaster Prevention Control Management System and Control Disaster Prevention Management Method Using the Same
KR20200072215A (en) 2018-12-12 2020-06-22 한국생산기술연구원 System for management and control of pest spraying drone, and control method for the same
KR102129408B1 (en) * 2020-01-30 2020-07-02 주식회사 디지털커브 Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157892A (en) * 2016-02-29 2017-09-07 キヤノン株式会社 Display device and control method thereof
KR20200072215A (en) 2018-12-12 2020-06-22 한국생산기술연구원 System for management and control of pest spraying drone, and control method for the same
KR102090611B1 (en) * 2019-10-10 2020-03-18 경남도립거창대학산학협력단 Disaster Prevention Control Management System and Control Disaster Prevention Management Method Using the Same
KR102129408B1 (en) * 2020-01-30 2020-07-02 주식회사 디지털커브 Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map

Similar Documents

Publication Publication Date Title
US11835561B2 (en) Unmanned aerial vehicle electromagnetic avoidance and utilization system
US20230400853A1 (en) Adjusting a uav flight plan based on radio frequency signal data
Balta et al. Integrated data management for a fleet of search‐and‐rescue robots
Barrientos et al. Aerial remote sensing in agriculture: A practical approach to area coverage and path planning for fleets of mini aerial robots
Eisenbeiss et al. Investigation of UAV systems and flight modes for photogrammetric applications
Recchiuto et al. Post‐disaster assessment with unmanned aerial vehicles: A survey on practical implementations and research approaches
Hernandez-Lopez et al. An automatic approach to UAV flight planning and control for photogrammetric applications
US11725940B2 (en) Unmanned aerial vehicle control point selection system
CN109283937A (en) A kind of plant protection based on unmanned plane sprays the method and system of operation
US10921825B2 (en) System and method for perceptive navigation of automated vehicles
Cui et al. Search and rescue using multiple drones in post-disaster situation
EP3799618B1 (en) Method of navigating a vehicle and system thereof
Huang et al. A method for using unmanned aerial vehicles for emergency investigation of single geo-hazards and sample applications of this method
CN213302860U (en) Three-dimensional visual obstacle avoidance system of unmanned aerial vehicle
CN113238576A (en) Positioning method for unmanned aerial vehicle and related device
CN110515390A (en) Aircraft Autonomous landing method and device, electronic equipment, storage medium
Pestana et al. Overview obstacle maps for obstacle‐aware navigation of autonomous drones
Keyvanfar et al. Optimization and trajectory analysis of drone’s flying and environmental variables for 3D modelling the construction progress monitoring
CN112286228A (en) Unmanned aerial vehicle three-dimensional visual obstacle avoidance method and system
KR102467859B1 (en) A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor
Kamat et al. A survey on autonomous navigation techniques
Anand et al. Drones for Disaster Response and Management
Subramanian et al. Integrating Computer Vision and Photogrammetry for Autonomous Aerial Vehicle Landing in Static Environment
CN210072405U (en) Unmanned aerial vehicle cooperative control verification platform
Zimmermann Flight test results of helicopter approaches with trajectory guidance based on in-flight acquired LIDAR data

Legal Events

Date Code Title Description
GRNT Written decision to grant