KR102467859B1 - A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor - Google Patents
A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor Download PDFInfo
- Publication number
- KR102467859B1 KR102467859B1 KR1020210125253A KR20210125253A KR102467859B1 KR 102467859 B1 KR102467859 B1 KR 102467859B1 KR 1020210125253 A KR1020210125253 A KR 1020210125253A KR 20210125253 A KR20210125253 A KR 20210125253A KR 102467859 B1 KR102467859 B1 KR 102467859B1
- Authority
- KR
- South Korea
- Prior art keywords
- unmanned aerial
- aerial vehicle
- flight
- displaying
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Mining
-
- B64C2201/12—
-
- B64C2201/146—
Abstract
Description
본 발명은 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템에 관한 것이다.The present invention relates to a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor.
현재 국내 농업은 4차 산업 적용을 위해 인력의 고령화를 대체하기 위하여 무인비행체를 활용하고 있다. 농업용 무인비행체 방제, 항공예찰, 영상분석 등을 통하여 실시간 정보 분석의 중요성이 증가하여 무인비행체산업의 수요에 맞춰 급증하고 있는 실정이다. 최근의 4차 산업 혁명의 농업은 고령화를 해소하고 생산비용감소를 위하여 스마트농업으로 변화하였고 ICT(Information and Communications Technologies) 기술을 접목하여 기존의 방식의 효율성을 높이고 수익을 최적화하여 지속적인 관리를 통한 스마트농업의 발전이 전세계적으로 전개되고 있다. 무인비행체를 활용한 스마트 농업 시스템은 농민의 방제 작업을 지원하고 효율을 높여주므로 농업의 고령화에 따른 문제를 해결하는 역할로 급부상하고 있다. 그러나, 운영적인 측면에서 무인비행체의 효율성이 떨어지고 무인비행체의 활용에 대한 운영자와 소비자의 인식차이로 인하여 필요성이 감소되고 있다. 특히, 운영 기준 및 살포 효과에 대한 정확한 기준이 없어 소비자 측면에서 신뢰도가 감소하는 부분으로 작용하였다. 결국 무인비행체의 활용에 대한 분석의 연구가 희박하고 무인비행체 방제사의 조종 실력에 따라 방제 효율의 편차가 크게 발생하여 방제 분야에서 무인비행체의 보급을 저해하는 요소로 작용한다. 따라서, 자율주행을 진행하면서 방제를 수행할 수 있는 무인비행체에 대한 개발이 요구되었고, 관련하여 현재까지 개발된 다양한 기술을 활용하여 무인비행체의 자율주행이 적용되고 있다. 특히, 많은 노동력과 수만 평방미터의 균일한 작업 처리가 요구되는 방제에 있어서는 특히나 자율주행 무인비행체 기술을 활용하려는 시도가 많다. 더불어, 자율주행 무인비행체의 비행 상태, 방제 현황 및 방제 지도의 관리를 위한 통합적인 관제 시스템에 대한 필요성도 대두되고 있다. Currently, domestic agriculture is using unmanned aerial vehicles to replace the aging of the workforce for the application of the 4th industry. The importance of real-time information analysis has increased through agricultural unmanned aerial vehicle control, aerial surveillance, image analysis, etc., and is rapidly increasing in line with the demand of the unmanned aerial vehicle industry. Recently, agriculture in the 4th industrial revolution has changed to smart agriculture to resolve aging and reduce production costs, and ICT (Information and Communications Technologies) technology has been grafted to increase efficiency of existing methods and optimize profits to achieve smart agriculture through continuous management. Agricultural development is unfolding all over the world. A smart agricultural system using unmanned aerial vehicles is rapidly emerging as a role to solve problems caused by the aging of agriculture by supporting farmers' control work and increasing efficiency. However, in terms of operation, the efficiency of unmanned aerial vehicles is low, and the necessity is decreasing due to the difference in perception between operators and consumers regarding the utilization of unmanned aerial vehicles. In particular, there was no accurate standard for operating standards and spraying effects, which acted as a part in which reliability decreased from the consumer's point of view. In the end, research on the analysis of the utilization of unmanned aerial vehicles is rare, and there is a large deviation in control efficiency depending on the piloting ability of unmanned aerial vehicles. Therefore, the development of an unmanned aerial vehicle capable of performing pest control while autonomously driving has been required, and autonomous driving of an unmanned aerial vehicle is being applied using various technologies developed to date. In particular, there are many attempts to utilize self-driving unmanned aerial vehicle technology in pest control that requires a lot of labor and uniform work processing of tens of thousands of square meters. In addition, the need for an integrated control system for the management of the flight status, control status, and control map of the self-driving unmanned aerial vehicle is also emerging.
본 발명은 방제 관리 계획은 통합적으로 관리할 수 있도록 하여 빅데이터를 구축하고 이를 분석하여 중장기적인 작업계획을 통하여 작물의 수확량 증대가 가능하도록 하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템을 제공한다.The present invention enables control management plans to be managed in an integrated manner, thereby constructing and analyzing big data to increase the yield of crops through mid- to long-term work plans. A method and a ground control system for the same are provided.
또한, 본 발명은 무인비행체를 활용한 방제로 기존의 인력 대체가 가능하고 수요자의 신뢰도를 높여 방제 운영시스템 정착을 가능하게 한다.In addition, the present invention is possible to replace the existing manpower with control using an unmanned aerial vehicle, and enables the settlement of the control operation system by increasing the reliability of the consumer.
또한, 본 발명은 무인비행체 방제사의 수동조작을 통한 약제 살포의 불균일성을 해소하고 스마트자동모드를 통하여 무인비행체의 특성 파악이 가능한 기초 운영시스템을 구축할 수 있도록 한다.In addition, the present invention solves the non-uniformity of drug spraying through the manual operation of the unmanned aerial vehicle control operator and enables the construction of a basic operating system capable of identifying the characteristics of the unmanned aerial vehicle through a smart automatic mode.
실시예는, 컴퓨팅 장치에서 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램이 실행되어 유저 인터페이스를 표시하는 단계; 수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및 상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고, 무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.The embodiment includes the steps of displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device; displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and displaying information on the control status, flight path, and state of the unmanned aerial vehicle of the selected working area among the plurality of working areas, including image information obtained by photographing the selected working area while the unmanned aerial vehicle is flying, and flight of the unmanned aerial vehicle. It is possible to provide a method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight displaying at least one of path information already flown along a route and current location information of the unmanned aerial vehicle within the selected work area.
다른 측면에서, 상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하는 단계; 및 상기 표시된 지적도 이미지 상의 일 지점의 선택에 응답하여 선택된 지점을 무인비행체가 촬영한 이미지를 상기 선택된 일 지점에 중첩하여 표시하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, the user interface may include displaying a cadastral map image matching a searched address in response to selection of a cadastral map affordance; and displaying an image taken by an unmanned aerial vehicle of the selected point in response to the selection of a point on the displayed cadastral map image on the selected point; How to do it can be provided.
다른 측면에서, 상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하고, 무인비행체가 표시된 지적도 이미지 상의 지역을 촬영한 이미지를 상기 지적도 이미지와 중첩하여 표시하는 단계; 및 상기 촬영한 이미지와 상기 지적도 이미지가 중첩되지 않는 영역의 선택에 응답하여 선택된 지점을 촬영한 이미지를 불러드려 상기 중첩되지 않는 영역에 정합하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, the user interface displays a cadastral map image matching the searched address in response to selection of the cadastral map affordance, and overlaps and displays an image of a region on the cadastral map image on which the unmanned aerial vehicle is displayed, overlapping the cadastral map image; and in response to selection of an area where the captured image and the cadastral map image do not overlap, loading an image of a selected point and matching the captured area to the non-overlapping area; Thus, it is possible to provide a method for performing autonomous control.
다른 측면에서, 상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상의 복수의 지점의 선택에 응답하여 선택된 지점을 연결하는 비행 경로를 설정하고, 설정된 비행 경로를 따라 무인비행체가 이동하며 촬영한 영상을 재생하는 단계;를 더 포함하고, 상기 경로 설정 인터페이스 상에서 설정된 무인비행체의 비행 속도에 기초하여 영상의 재생 속도가 변경되는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and setting a flight path connecting the selected points in response to the selection of a plurality of points on the map image displayed on the path setting interface, and reproducing the captured image while the UAV moves along the set flight path. In addition, it is possible to provide a method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight in which an image playback speed is changed based on the flight speed of the unmanned aerial vehicle set on the route setting interface.
다른 측면에서, 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상에 촬영된 피사체의 종류 정보를 표시하는 단계; 상기 종류 정보 내의 복수의 항목 중 어느 하나의 선택에 응답하여 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 내에서 선택된 항목에 매칭되는 영역에 그리드 맵을 표시하는 단계; 상기 그리드 맵 내에서 무인비행체의 비행 경로를 설정 및 수정할 수 있도록 하는 편집용 그리드 맵을 표시하는 단계; 및 상기 그리드 맵은 복수의 부분 그리드로 구성되고, 상기 복수의 부분 그리드들 중 어느 하나의 선택에 응답하여 선택된 부분 그리드 내의 세부 비행 경로의 설정 및 수정을 허용하는 인터페이스를 제공하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수 있다.In another aspect, displaying type information of a photographed subject on a map image displayed on the route setting interface; displaying a grid map in an area matching the selected item in the map image displayed on the route setting interface in response to selection of any one of a plurality of items in the type information; displaying a grid map for editing allowing the flight path of the unmanned aerial vehicle to be set and modified within the grid map; and providing an interface allowing setting and modifying detailed flight paths in the selected partial grid in response to selection of one of the plurality of partial grids, wherein the grid map is composed of a plurality of partial grids. It is possible to provide a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
다른 측면에서, 상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및 상기 경로 설정 인터페이스는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체가 비행할 수 있는 복수의 레이어를 설정하는 단계;를 더 포함하고, 상기 복수의 레이어를 설정하는 단계는, 표면 스캐닝 데이터로부터 피사체의 포인트 클라우드를 획득하고, 상기 포인트 클라우드의 분석에 기초하여 상기 피사체들을 식별하고, 포인트 클라우드의 분석에 기초하여 상기 피사체들의 특정 포인트들을 연결하는 복수의 레이어를 설정하여, 상기 복수의 레이어 중 어느 하나의 레이어 상에서 상기 무인비행체가 자율 주행 가능하도록 하는 비행 경로를 설정하도록 하고, 상기 무인비행체가 비행 경로 상에서 장애물을 인식하면 상기 무인비행체에게 할당된 레이어와 다른 레이어로 회피 이동하되 상기 무인비행체에게 할당된 레이어 상에서의 비행 경로의 형태를 유지하며 상기 다른 레이어 상에서 비행하는 것을 시뮬레이션하는 장애물 회피 시뮬레이션 인터페이스를 제공하는 단계;를 더 포함하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법을 제공할 수도 있다.In another aspect, displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and setting a plurality of layers through which the unmanned aerial vehicle can fly in response to a selection of a flight layer setting affordance, in the path setting interface, wherein the setting of the plurality of layers comprises the subject from the surface scanning data. Obtaining a point cloud of , identifying the subjects based on the analysis of the point cloud, and setting a plurality of layers connecting specific points of the subjects based on the analysis of the point cloud, thereby selecting one of the plurality of layers. On the layer of the UAV, set a flight path that enables autonomous navigation, and when the UAV recognizes an obstacle on the flight path, move to avoid and move to a layer different from the layer assigned to the UAV. Maintaining the shape of the flight path on the layer and providing an obstacle avoidance simulation interface that simulates flying on the other layer; may be
실시예는 방제 활동 중인 무인비행체의 실시간 위치 정보와 방제 현황 정보를 제공하고 및 자동 방제 기능 구현할 수 있도록 하는 자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법 및 이를 위한 지상 관제 시스템을 제공할 수 있다.The embodiment provides a method for performing autonomous control using an unmanned aerial vehicle capable of autonomous flight that provides real-time location information and control status information of an unmanned aerial vehicle during control activities and implements an automatic control function, and provides a ground control system therefor. can do.
실시예는 각종 지도 이미지 상에서 작업 영역, 작업의 종류, 비행 타입과 작업을 위한 비행 경로의 용이한 설정이 가능하도록 하는 방법을 제공할 수 있다.The embodiment may provide a method for enabling easy setting of a work area, a work type, a flight type, and a flight route for work on various map images.
실시예는 지적도면과 현황사이에서의 비정합 필지 수정을 위한 무인비행체 영상 업로드 및 지적도면 편집이 가능하도록 하는 방법 및 이를 위한 시스템을 제공할 수 있다.Embodiments may provide a method and system for enabling unmanned aerial vehicle image upload and cadastral map editing for correcting inconsistent parcels between the cadastral map and current status.
도 1은 본 발명의 실시예에 따른 지상 관제 시스템 시스템에 대한 개략도이다.
도 2 내지 도 13은 컴퓨팅 장치에 설치되어 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램의 유저 인터페이스를 개략적으로 나타낸 것이다.1 is a schematic diagram of a ground control system system according to an embodiment of the present invention.
2 to 13 schematically show a user interface of a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle installed and executed in a computing device.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. Also, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, terms such as include or have mean that features or elements described in the specification exist, and do not preclude the possibility that one or more other features or elements may be added. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to the illustrated bar.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted. .
도 1은 본 발명의 실시예에 따른 지상 관제 시스템 시스템에 대한 개략도이다.1 is a schematic diagram of a ground control system system according to an embodiment of the present invention.
도 1을 참조하면, 무인비행체(30)는 생성된 자율항법지도에 기초하여 비행 영역(11)을 따라 자율 비행할 수 있다. 여기서의 비행 영역(11)은 무인비행체(30)가 비행하면서 미리 설정된 다양한 작업 중 적어도 하나의 작업을 수행하는 영역으로 정의할 수 있다.Referring to FIG. 1 , an unmanned
자율주행이 가능한 무인비행체(30)는 다중 또는 단일 로터 무인 비행체(UAV) 또는 하이브리드 비행선이 될 수 있다. 무인비행체(30)는 자이로스코프, 가속도계, 자력계(나침반), 기압계, 소나, 광학 흐름 센서, 에너지 관리 모듈, 전압 관리 모듈, GPS 모듈을 포함할 수 있다. 각종 센서는 모터 입력, 고도, 피치, 롤, 방향, 위치, 자세, 고정밀 절대 및 상대 위치, 장애물 감지, 거리 감지, 속도 제어 및 디지털 풍속 감지 기능을 제공할 수 있다. 일부 실시예에서, 무인비행체(30)는 농작물에 비료 등을 살포하는 동안이나 기타 현장 작업을 수행하는 동안 하중 중량 변화에 따른 비행 속도 등이 제어될 수 있다.The unmanned
무인비행체(30)는 프레임과 프레임에 장착된 모터와 프레임에 부착된 전자 및 통신 장비를 포함할 수 있다. 모터의 수는 3개(트라이-콥터)에서 4개(쿼드-콥터), 6개(헥사-콥터), 8(옥토-콥터) 또는 필요한 추력에 따라 그 이상이 될 수 있다. The unmanned
컴퓨팅 장치(200)는 휴대형의 단말기(200a) 및/또는 데스크탑이나 서버(200b)를 포함할 수 있다. 컴퓨팅 장치(200)는 무인비행체(30)의 구동을 제어하고, 자율항법지도를 생성할 수 있다.The
단말기(200a)는 표시된 각종 어포던스의 선택을 수신할 수 있다. 여기서의 선택은 예시적으로 터치 입력이 될 수 있다. 또한, 단말기(200a)는 선택 및 선택의 이동 그리고 선택을 종료 여부를 판단할 수 있고, 선택의 이동은 예시적으로 연속된 터치 입력 및 터치 입력 위치의 이동이 될 수 있다.The
데스크탑(200b)은 표시된 각종 어포던스의 선택을 수신할 수 있다. 여기서의 선택은 예시적으로 마우스와 같은 외부 입력 장치에 의한 명령 신호의 입력이 될 수 있다. 또한, 데스크탑(200b)은 선택 및 선택의 이동 그리고 선택을 종료 여부를 판단할 수 있고, 선택의 이동은 예시적으로 외부 입력 장치에 의한 연속된 명령 신호의 입력 및 명령 신호의 입력의 위치 이동이 될 수 있으나 이에 제한되는 것은 아니다.The
도 2 내지 도 13은 컴퓨팅 장치에 설치되어 실행되는 무인비행체의 자율 비행 및 자율 방제를 위한 지상관제 프로그램의 유저 인터페이스를 개략적으로 나타낸 것이다.2 to 13 schematically show a user interface of a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle installed and executed in a computing device.
기록 매체에 저장 가능한 지상관제 프로그램(100)은 컴퓨팅 장치(200) 상에서 실행된 후, 유저의 정보를 입력하여 컴퓨터 프로그램(100)에 로그인 절차를 거치면 도 2에서 예시적으로 도시된 바와 같은 유저 인터페이스(110)가 표시될 수 있다.After the
유저 인터페이스(110)는 메인 메뉴 어포던스(112)를 표시할 수 있다. 메인 메뉴 어포던스(112)는 지도 어포던스, 경로설정 어포던스, 상태정보 어포던스, 방제현황 어포던스 및 지적도 어포던스를 포함할 수 있다.The
컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 복수의 어포던스 중 어느 하나의 선택에 응답하여 다양한 유저 인터페이스를 제공할 수 있다.The
유저 인터페이스(110)는 검색 창(111)에 입력된 주소 정보에 매칭되는 제1 지도 이미지(im1)를 표시할 수 있다.The
제1 지도 이미지(im1)는 항공 사진 이미지가 될 수 있으나 이에 제한되는 것은 아니다.The first map image im1 may be an aerial photographic image, but is not limited thereto.
제1 지도 이미지(im1) 상에는 복수의 작업 영역(113)이 제1 지도 이미지(im1)에 중첩하여 표시될 수 있다. 복수의 작업 영역(113)들은 서로 구분될 수 있도록 작업 영역의 경계를 따라 그려진 점선으로 표시될 수 있으나 이에 제한되는 것은 아니다.On the first map image im1, the plurality of
복수의 작업 영역(113)들은 작업 상태에 따라 서로 구분되어 표시될 수 있다. 예시적으로, 작업이 완료된 작업 영역(113a)과 작업이 진행 중인 작업 영역(113b)는 서로 구분되어 표시될 수 있다.The plurality of
일부 실시예에서, 복수의 작업 영역(113)들 중에서 방제 방식, 방제사, 토지의 소유주 정보 등 공통되는 성격에 따라 그룹핑되어 그룹들간에 구분이 가능한 형태로 표시될 수도 있다.In some embodiments, among the plurality of
복수의 작업 영역(113) 각각에 대응하는 작업 요약 정보(114)가 제1 지도 이미지(im1)와 중첩되어 표시될 수 있다. 작업 요약 정보(114)는 작업 영역의 위치 정보, 방제 정보 등을 다양한 정보들의 요약 정보를 포함할 수 있다.The
도 3을 참조하면, 컴퓨팅 장치(200)는 제1 지도 이미지(im1) 상에 표시된 복수의 작업 영역(113) 중 어느 하나의 선택에 응답하여 선택된 작업 영역(113)의 작업 영역 세부 정보(110a)를 표시할 수 있다.Referring to FIG. 3 , the
유저 인터페이스(110)에서 표시되는 작업 영역 세부 정보(110a)는 제2 지도 이미지(im2)와 제3 지도 이미지(im3) 그리고 무인비행체(30)의 비행 경로 정보(115) 및 상태 정보(116)를 포함할 수 있다.The work area detailed
제2 및 제3 지도 이미지(im2, im3)는 항공 사진 이미지가 될 수 있으나 이에 제한되는 것은 아니다.The second and third map images im2 and im3 may be aerial photographic images, but are not limited thereto.
제2 지도 이미지(im2)는 선택된 작업 영역(113)을 확대한 이미지가 될 수 있다. 그리고, 제3 지도 이미지(im3)에는 선택된 작업 영역(113)과 최인접한 스테이션(si)에 대한 정보가 표시될 수 있다. 무인비행체(30)는 스테이션(si)에서 배터리의 충전, 작업에 필요한 도구 세트의 장착이나 교환, 작업 영역에 분사할 비료나 살충제 등의 화학 물질 등의 충전 작업 등을 진행할 수 있으나 이에 제한되는 것은 아니다.The second map image im2 may be an enlarged image of the selected
비행 경로 정보(115)는 설정된 자율항법지도에 기초하여 설정된 무인비행체(30)가 선택된 작업 영역(113) 상에서의 비행하는 경로에 대한 정보가 될 수 있다. 예시적으로, 작업 영역(113)과 대응하는 형태의 경계선이 도시되고, 경계선 내에는 비행 경로가 표시됨으로써 선택된 작업 영역(113) 상에서 무인비행체(30)의 비행 경로를 확인할 수 있도록 한다.The
상태 정보(116)는 무인비행체(30)의 배터리 총량, 저장하고 있는 화학물질의 총량, 이들의 사용량, 비행가능시간 정보 그리고, 방제의 현재 상태에 대한 정보를 포함할 수 있다. 작업 영역(113)의 작업 완료, 작업 중, 작업 전 상황에 따라 상태 정보(116)에 포함되는 정보들은 달라질 수 있다.The
도 4를 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 상태 정보 어포던스의 선택에 응답하여 검색 창(111)에서 입력된 프로젝트와 매칭된 작업의 상태 정보를 표시할 수 있다.Referring to FIG. 4 , the
예시적으로 프로젝트 1이 검색된 경우, 프로젝트 1과 관련된 작업의 상태 정보가 표시될 수 있다.For example, when Project 1 is searched for, status information of tasks related to Project 1 may be displayed.
유저 인터페이스(110)는 작업 영역에서 작업 중인 무인비행체(30)가 촬영하는 영상을 실시간 영상(im4)으로서 표시할 수 있다.The
컴퓨팅 장치(200)는 실시간 영상(im4)의 확대 어포던스(+기호) 또는 축소 어포던스(-기호)의 선택에 응답하여 확대되거나 축소된 실시간 영상(im4)이 표시될 수 있다. 컴퓨팅 장치(200)는 실시간 영상(im4)의 확대 어포던스(+기호) 또는 축소 어포던스(-기호)의 선택에 응답하여 무인비행체(30)에 탑재된 카메라의 줌인 또는 줌아웃을 명령하는 신호를 무인비행체(30)로 제공할 수 있다. 무인비행체(30)는 줌인 또는 줌아웃을 명령하는 신호의 수신에 응답하여 카메라의 초점을 조절한 후 촬영한 영상을 실시간으로 컴퓨팅 장치(200)로 전송할 수 있다.The
또한, 유저 인터페이스(110)는 방제 진행 상황, 무인비행체(30)의 배터리 충전량, 비료 등의 잔량에 대한 정보를 포함하는 방제 진행 상황 정보(117)를 표시할 수 있다. 방제 진행 상항 정보(117)는 그 밖의 다양한 방제 진행과 관련한 정보를 포함할 수 있다.In addition, the
또한, 유저 인터페이스(110)는 실시간 방제 경로 정보(118)를 표시할 수 있다. 실시간 방제 현황 정보(118)에는 작업 영역(113), 무인비행체(30)의 비행 경로 및 무인비행체(30)의 작업을 진행하면서 이미 비행한 경로가 표시될 수 있다.In addition, the
여기서의 이미 비행한 경로는 비행 경로의 적어도 일부와 중첩되어 표시될 수 있다.An already flown path here may be displayed overlapping with at least a part of the flight path.
또한, 유저 인터페이스(110)는 작업 영역(113) 내에서의 현재 무인비행체(30)의 실시간 위치 정보(119)를 표시할 수 있다.In addition, the
도 5를 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 방제 현황 어포던스의 선택에 응답하여 등록된 방제 현황 정보를 표시할 수 있다.Referring to FIG. 5 , the
유저 인터페이스(110)는 방제 현황 정보와 관련하여 등록된 작업 영역, 작업 영역의 위치, 작업 상태, 담당자, 작업 진행 상황에 대한 정보를 표시할 수 있다.The
또한, 표시된 방제 현황 정보들 중에서 유저 인터페이스(110)는 검색 창에 입력된 정보에 매칭되는 정보만을 표시할 수도 있다.In addition, among the displayed control status information, the
또한 유저 인터페이스(110)는 상세보기 어포던스의 선택에 응답하여 전술한 도 4와 같은 선택된 항목과 관련된 상태 정보를 표시할 수도 있다.In addition, the
도 6을 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 지적도 어포던스의 선택에 응답하여 검색 창(111)에 입력된 주소 정보와 매칭되는 지역의 지적도 이미지(im5)를 표시할 수 있다.Referring to FIG. 6 , the
컴퓨팅 장치(200)는 표시된 지적도 이미지(im5) 상의 선택된 지점에 대응하는 지적도 상의 위치를 촬영한 무인비행체(30)의 영상 이미지를 선택된 지점과 중첩하여 표시할 수 있다.The
유저 인터페이스(110)는 지적도 이미지(im5) 상의 복수의 위치들 중에서 무인비행체(30)의 촬영 영상이 등록되지 않은 지점을 그렇지 않은 지점과 구분하여 표시할 수 있다. 유저 인터페이스(110)는 촬영 영상이 등록되지 않은 지점에 대한 선택에 응답하여 무인비행체(30)가 촬영한 영상을 등록할 수 있도록 허용한다. 또한, 유저 인터페이스(110)는 무인비행체(30)가 촬영 영상의 검색 기능을 제공하고, 검색된 무인비행체(30)의 촬영 이미지(im6)를 적어도 하나 표시할 수 있다.The
일부 실시예에서, 유저 인터페이스(110)는 지적도면과 현황사이에서 비정합 필지에 대한 무인비행체(30)의 촬영 영상 업로드 및 지적도면 편집기능을 추가로 제공할 수도 있다.In some embodiments, the
상세하게, 도 7을 참조하면, 유저 인터페이스(110)는 중첩 보기 어포던스의 선택에 응답하여 표시된 지적도 이미지(im5)에 중첩하여 무인비행체(30)의 촬영 이미지(im7)가 지적도 이미지(im5)와 중첩하여 표시될 수 있다. 지적도 이미지(im5) 상에서 무인비행체(30)의 촬영 이미지가 존재하지 미중첩 영역이 존재할 수 있다(도시된 예에 따르면, 277-6, 712-7 영역). 유저 인터페이스(110)는 무인비행체(30)의 촬영 이미지가 존재하지 않은 영역인 미중첩 영역 중 어느 하나의 선택 및 무인비행체 영상 검색 어포던스의 선택에 응답하여 선택된 미중첩 영역을 촬영한 촬영 이미지(im6)를 검색하여 표시할 수 있다. 도 8을 참조하면, 유저 인터페이스(110)는 표시된 촬영 이미지(im6)의 선택 및 선택의 이동에 응답하여 촬영 이미지(im6)를 선택의 이동 방향에 따라 이동시킬 수 있다. 유저 인터페이스(110)는 촬영 이미지(im6)가 이동하여 선택된 미중첩 영역에 위치하면 촬영 이미지(im6)와 지적도 이미지(im5)에 이미 중첩된 촬영 이미지(im7)를 서로 정합하여 하나의 이미지로 생성하고, 이를 지적도 이미지(im5)와 중첩하여 표시할 수 있다.In detail, referring to FIG. 7 , the
도 9를 참조하면, 유저 인터페이스(110)는 표시된 지적도 이미지(im5)에서 선택된 지점에 매칭되는 무인비행체(30)의 촬영 이미지(im7)를 지적도 이미지(im5)와 중첩하여 표시할 수 있다. 사용자가 지적도 이미지(im5) 상의 복수의 지점을 선택하면 유저 인터페이스(110)는 선택 지점들을 서로 연결하여 가상의 폐쇄 영역을 설정하여 폐쇄 영역 내를 무인비행체(30)가 촬영한 이미지(im7)로 채워넣을 수 있다. 따라서, 폐쇄 영역 상에 표시된 촬영 이미지(im7)와 지적도 이미지(im5)는 서로 중첩하여 표시될 수 있다.Referring to FIG. 9 , the
도 10을 참조하면, 컴퓨팅 장치(200)는 메인 메뉴 어포던스(112) 내의 경로 설정 어포던스의 선택에 응답하여 자율 비행 경로를 설정할 수 있는 경로 설정 인터페이스(130)를 제공할 수 있다.Referring to FIG. 10 , the
경로 설정 인터페이스(130)는 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 경로 설정 인터페이스(130)는 2D/3D 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지역의 2D 또는 3D 이미지를 표시할 수 있다. 또한, 경로 설정 인터페이스(130)는 지도의 종류 어포던스의 선택에 응답하여 사용자가 표시되는 지도의 종류를 변경할 수 있도록 허용할 수 있다.The
경로 설정 인터페이스(130)는 지도 이미지(im8) 상에서의 선택된 복수의 지점(p1 내지 p6)을 서로 연결하는 경로를 표시할 수 있다. 예시적으로, 사용자는 표시된 지도 이미지(im8) 상에서의 동일 지점에 대한 한번의 선택 또는 연속된 복수의 선택을 통해 경로 시작 지점과 경로 종료 지점을 또는 경유 지점을 설정할 수 있다. 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8)에서 동일 지점에 대한 연속된 선택을 수신하면 해당 지점을 경로의 시작 지점(ps)으로 설정할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상의 일 지점에 대한 선택에 응답하여 선택된 지점을 경류 지점으로 설정(p2 내지 p5)할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8)에서 동일 지점에 대한 연속된 선택을 수신하면 이미 경로의 시작 지점(ps)이 설정되어 있으므로 해당 지점을 경로의 종료 지점(pe)으로 설정할 수 있다.The
경로 설정 인터페이스(130)는 경로의 시작 지점(ps) 및 경로의 종료 지점(pe)이 설정되면 설정된 모든 지점을 서로 연결하여 하나의 비행 경로(pp)를 설정할 수 있다.When the starting point ps and ending point pe of the route are set, the
경로 설정 인터페이스(130)는 경로 상의 촬영 영상 어포던스의 선택에 응답하여 설정된 비행 경로(pp)를 따라 무인비행체(30)가 이동하면서 촬영한 동영상을 표시할 수 있다. 경로 설정 인터페이스(130)는 영상의 재생 시간에 동기하여 설정된 비행 경로(pp)를 따라 이동하는 아이콘을 표시할 수 있다. 여기서의 아이콘은 무인비행체(30)의 형상을 닯은 아이콘이 될 수 있으나 이에 제한되는 것은 아니다.The
사용자는 경로 설정 인터페이스(130)에서 작업의 종류, 설정된 비행 경로(pp)를 따라 이동하는 무인비행체(30)의 고도, 속도, 짐벌 피치각, 무인비행체(30)의 이동 방향을 추가로 설정할 수 있도록 한다. 일부 실시예에서, 무인비행체(30)의 속도가 변경되면, 그에 따라 경로 상의 촬영 영상의 재생 속도 또한 변경되고, 이에 동기하여 설정된 비행 경로(pp)를 따라 이동하는 아이콘의 이동 속도도 변경될 수 있다.The user may additionally set the type of work, the altitude, speed, gimbal pitch angle, and moving direction of the unmanned
도 11을 참조하면, 경로 설정 인터페이스(130)는 지정된 지역 내의 작업 계획을 설정하기 위한 환경을 제공할 수도 있다.Referring to FIG. 11 , the
경로 설정 인터페이스(130)는 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 그리고, 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상의 복수의 지점의 선택에 응답하여 선택된 지점(ap)들을 서로 연결하여 하나의 지역 영역(lo)을 자동으로 설정할 수 있다.The
경로 설정 인터페이스(130)는 지역 영역(lo)이 설정되면 지역 영역(lo)의 면적 정보를 제공할 수 있다. 그리고, 경로 설정 인터페이스(130)는 지역 영역(lo)에서 무인비행체(30)가 진행할 작업의 종류 및 비행 타입을 선택할 수 있는 인터페이스를 제공할 수 있다. 사용자는 복수의 서로 다른 작업의 종류에서 어느 하나의 작업을 선택하고, 복수의 비행 타입 중 어느 하나의 비행 타입을 선택할 수 있다. 경로 설정 인터페이스(130)는 선택된 작업의 종류와 비행 타입에 기초하여 설정된 지역 영역(lo) 내에서 최적의 비행 경로, 비행 시간, 비행 속도를 자동으로 설정할 수 있다. 예를 들어, 무인비행체(30)가 살충제를 지역 영역(lo) 상에 살포하는 작업이 선택된 경우, 살충제의 분사 범위와 분사의 정밀도 정보에 기초하여 비행 경로가 설정될 수 있다. 또한, 비행타입으로 무인비행체(30)의 저속 비행이 선택된 경우에는 미리 설정된 속도 이하로 무인비행체(30)가 비행할 수 있도록 비행 속도가 설정될 수 있다.The
도 12 및 도 13을 참조하면, 경로 설정 인터페이스(130)는 표시된 검색 창(111)에 입력된 주소 정보에 매칭되는 지도 이미지(im8)를 표시할 수 있다. 경로 설정 인터페이스(130)는 표시된 지도 이미지(im8) 상에 촬영된 피사체의 종류 정보(im8c)를 표시할 수 있다. 만약, 지도 이미지(im8) 상에 강, 숲, 산, 도로, 바다 등이 존재하는 경우 해당 정보를 표시할 수 있다.Referring to FIGS. 12 and 13 , the
경로 설정 인터페이스(130)는 피사체의 종류 정보(im8c) 내의 복수의 항목들 중 어느 하나의 선택을 수신할 수 있다. 예시적으로 사용자는 “강' 항목을 선택할 수 있다. 경로 설정 인터페이스(130)는 피사체의 종류 정보(im8c) 내의 복수의 항목들 중 어느 하나의 선택에 응답하여 표시된 지도 이미지(im8) 상에서 선택된 항목과 매칭되는 영역에 그리드 맵(gl)을 표시할 수 있다. 일부 실시예에서 그리드 맵(gl)은 복수의 부분 그리드들로 분할되어 표시될 수 있다. 복수의 부분 그리드들은 전체로서 하나의 그리드 맵(gl)을 구성할 수 있다.The
경로 설정 인터페이스(130)는 지도 이미지(im8) 상에 맵핑된 그리드 맵(gl)의 총 면적 정보를 표시할 수 있다. 또한, 사용자는 해당 그리드 맵(gl) 상에서 무인비행체(30)가 비행하여 행할 작업의 종류를 선택할 수 있다.The
경로 설정 인터페이스(130)는 그리드 맵(gl)을 지도 이미지(im8)와 중첩되지 않는 영역에 표시(그리드 맵 비행 경로 정보)할 수 있다. 또한, 경로 설정 인터페이스(130)는 그리드 맵(gl)을 따라 무인비행체(30)가 비행하는 경로를 설정할 수 있다. 그리고, 경로 설정 인터페이스(130)는 비행 경로를 포함하는 그리드 맵인 편집용 그리드 맵(egp)을 표시할 수 있다.The
편집용 그리드 맵(egp) 상에는 기본적으로 설정된 디폴트 비행 경로가 표시될 수 있다. 경로 설정 인터페이스(130)는 편집용 그리드 맵(egp) 상에서 표시된 비행 경로의 일 지점의 선택 및 선택의 이동에 응답하여 그리드 맵(egp)의 범위 내에서 경로를 변경할 수 있도록 허용할 수 있다.A default flight path set by default may be displayed on the grid map (egp) for editing. The
일부 실시예에서, 복수의 부분 그리드들 각각에는 그리드 포인터(glp)가 표시될 수 있다. 경로 설정 인터페이스(130)는 부분 그리드들 각각에 표시된 그리드 포인터(glp)들 중 어느 하나의 선택에 응답하여 선택되 그리드 포인터(glp)가 속한 부분 그리드를 표시하고, 표시된 부분 그리드 내에서 세부적인 비행 경로를 설정할 수 있도록 하는 인터페이스를 추가로 제공할 수도 있다.In some embodiments, a grid pointer glp may be displayed on each of the plurality of partial grids. The
경로 설정 인터페이스(130)는 편집용 그리드 맵(egp) 상에서의 비행 경로 정보에 기초하여 총 비행 거리와 예상 비행 시간 정보 등을 표시할 수 있다.The
컴퓨팅 장치(200)는 도 10, 도 11 및 도 13에서 설정된 비행 경로 및 해당 비행 경로가 설정된 지도 이미지 데이터에 기초하여 자율항법지도 데이터를 생성할 수 있다. 무인비행체(30)는 자율항법지도 데이터에 기초하여 자율 비행하며 자율 방제를 수행할 수 있다. 다른 측면에서, 컴퓨팅 장치(200)는 자율항법지도 데이터에 기초하여 무인비행체(30)의 제어 명령 신호를 실시간 전송하여 무인비행체(30)가 제어 명령 신호에 따라 자율 비행하며 자율 방제를 수행할 수 있도록 할 수 있다.The
일부 실시예에 따르면, 도 10에서 경로 설정 인터페이스(130)는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체(30)가 비행할 수 있는 복수의 레이어를 자동으로 설정할 수 있다.According to some embodiments, in FIG. 10 , the
상세하게, 컴퓨팅 장치(200)는 미리 저장된 현재 표시된 지도 이미지(im8) 상의 지표면을 포착하는 표면 스캐닝 데이터로부터 지표면 상의 피사체의 포인트 클라우드를 획득할 수 있다. 표면 스캐닝 데이터는 무인비행체(30)에 탑재된 표면 스캐닝 장치에 의해 스캐닝되어 수집된 데이터가 될 수 있다.In detail, the
무인비행체(30)의 자율비행을 용이하게 하는 포인트 클라우드는 객체의 특정 지점의 추출된 높이 값을 연결하여 공간상의 레이어로 사용된다. 여기서의 포인트 클라우드는 지형 고도 데이터를 이용하여 식별된 물체의 특정 지점의 높이 값을 추출하고, 추출된 특정 높이 값을 연결하여 무인 비행체(30)의 자율 비행을 용이하게 하는 영역 및 고도를 공간상의 레이어로 형성하도록 하는 객체의 포인트이다. 또한, 공간상에 형성된 복수의 레이어들은 서로 독립적이고, 레이어는 지면과 수평한 면을 가지는 것으로 볼 수 있다. 따라서, 무인비행체(30)가 어느 하나의 레이어 상에서 이동한다는 것은 무인비행체(30)의 고도가 유지됨을 의미한다.The point cloud that facilitates the autonomous flight of the unmanned
또한, 실시예는 레이어에 구축된 무인비행체(30)의 비행을 위한 자율항법지도를 GPS 또는 위치 좌표 보정 장치의 정보를 통해 안전 기준 내에서 무인비행체(30)와 동기화시켜 무인비행체(30)에 적용 가능한 공간지도로 형성할 수 있다.In addition, the embodiment synchronizes the autonomous navigation map for the flight of the unmanned
일부 실시예에서, 무인비행체(30)에 대한 임무에 따라 무인비행체(30)가 비행할 수 있는 지표면으로부터 일정 고도 값을 갖는 레이어를 설정하고, 설정된 레이어 상에서 무인비행체(30)의 항로인 비행 경로를 설정하며, 설정된 레이어와 레이어 상의 비행 경로 정보를 포함하는 자율 항법 지도를 구축할 수 있다. 여기서, 항로는 항로의 지표면에 존재하는 지상물의 위치를 포함하는 적어도 둘 이상의 웨이포인트들로 구성될 수 있다. 그리고 무인비행체(30)의 식별 정보에 따라 임무 별 자율 항법 지도를 구축할 수도 있다. 웨이포인트는 무인비행체(30)에게 할당된 임무를 수행할 수 있는 지점이다. 이에 따라 비가시권의 자율비행 지도를 제공하여 지상물 등으로 고도 값을 일정하게 유지하기 어려운 지역에 대한 조종사의 가시 범위 내 운영의 한계를 극복할 수 있다. 또한, 지표 스캐닝 및 영상 촬영 데이터로부터 자율비행 공간을 레이어로 형상화하고 형상화된 레이어에 데이터를 정합하여 고도 값이 반영된 무인비행체(30) 비행을 위한 지도를 제작할 수 있다.In some embodiments, a layer having a certain altitude value from the ground surface on which the unmanned
일부 실시예에서, 레이어 상의 항로인 비행 경로의 구체적인 경로 정보는 무인비행체(30)에게 할당된 작업에 따라 미리 정해진 다양한 비행 경로 중 어느 하나로 결정될 수 있다. 또한, 다양한 비행 경로 중 어느 하나로 결정되는 경우라고 하여도 경로의 세부적인 사항은 사용자가 경로 설정 인터페이스(130)를 통하여 직접 설정하는 것이 허용될 수 있다.In some embodiments, specific path information of a flight path, which is an airway on a layer, may be determined as one of various flight paths predetermined according to tasks assigned to the unmanned
한편, 컴퓨팅 장치(200)는 지형 고도 데이터들 중 수치 표면 모형(Digital Surface Model, DSM)이나 수치 지형 모델(Digital Terrain Model, DTM)을 활용하여 식별부에서 식별된 피사체의 특정 지점의 높이 값을 추출할 수 있다. DSM 데이터와 DTM 데이터는 각 국가의 지리 정보를 데이터베이스화 하여 구축하고 있는 정부 기관(예컨대, 한국의 경우에는 국토지리정보원)이나 항공측량 회사로부터 획득될 수 있는 데이터이다. 컴퓨팅 장치(200)는 추출된 피사체의 특정 지점의 높이 값을 연결하여 공간에 무인비행체(30)의 자율비행이 가능한 면적과 고도를 레이어로 형상화할 수 있고, 공간에 형상화된 레이어에 무인비행체(30)에게 할당된 작업의 종류 정보, 비행 고도 제한 데이터, 정밀수치 지도, 및 군사보안지역 또는 비행금지 구역을 회피하는 항로 정보 중 적어도 어느 하나 이상에 기초하거나 이들을 정합하여 공간에 무인 비행체의 비행을 위한 구체적인 비행 경로를 설정함으로써 자율항법 지도를 구성하는 레이어를 구축할 수 있다.Meanwhile, the
자율항법지도의 데이터는 무인비행체(30)가 자율 비행할 지역 상에는 복수의 레이어에 대한 정보를 포함한다. 예시적으로, 서로 다른 고도의 제1 및 제2 레이어에 대한 정보 및 각 레이어 상에서의 무인비행체(30)의 비행 경로 정보가 맵핑될 수 있다. 예시적으로, 제1 레이어의 비행 경로를 따라 제1 무인비행체가 제1 레이어에 따른 고도를 유지하면서 자율 비행할 수 있고, 제2 레이어의 비행 경로를 따라 제2 무인비행체가 제2 레이어에 따른 고도를 유지하면서 자율 비행할 수 있다. 여기서의 비행 경로 정보는 무인비행체(30)에게 할당된 작업을 수행하는데 최적의 경로 정보가 될 수 있다.The data of the autonomous navigation map includes information on a plurality of layers in an area where the unmanned
일부 실시예에 따르면, 도 10에서 경로 설정 인터페이스(130)는 장애물 회피 시뮬레이션 어포던스의 선택에 응답하여 도 14에서와 같은 장애물 회피 시뮬레이션 인터페이스(140)를 표시할 수 있다.According to some embodiments, the
도 14는 도 15에서 설명할 경로 포인트 사이의 직선 거리의 설정 및 전술한 경로 설정 인터페이스에서 비행 경로의 설정이 완료된 상태에서의 무인비행체가 장애물을 회피하는 것을 시뮬레이션하는 것을 설명하기 위한 것이다.FIG. 14 is for explaining simulation of avoiding obstacles by an unmanned aerial vehicle in a state in which the setting of the straight-line distance between route points to be described in FIG. 15 and the setting of the flight route in the above-described route setting interface are completed.
도 14를 참조하면, 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 장애물 종류 선택 어포던스의 선택에 응답하여 다양한 장애물 정보를 표시할 수 있고, 표시된 장애물 항목 중 어느 하나의 선택에 응답하여 선택된 장애물을 표시할 수 있다. 또한, 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 표시된 장애물의 선택 및 선택의 이동에 응답하여 장애물의 위치를 변경시킬 수 있다. 제1 장애물 회피 시뮬레이션 인터페이스(140a)는 시뮬레이션 실행 어포던스의 선택에 응답하여 무인비행체(30)가 비행 경로 상에서 자율항법지도 상에서 확인되지 않은 장애물이 존재하는 경우 다른 레이어로 회피 이동하면서 자율 비행을 유지하는 것을 표시하는 시뮬레이션을 실행할 수 있다.Referring to FIG. 14 , the first obstacle
제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 도시된 바와 같이, 제1 레이어(L1) 상의 비행 경로를 형성하는 복수의 제1 경로 포인트(LP1)가 도시되어 있다. 제1 경로 포인트(LP1)들을 서로 연결하면 제1 레이어(L1) 상에서의 제1 비행 경로가 된다. 그리고, 제2 레이어(L2) 상의 비행 경로를 형성하는 복수의 제2 경로 포인트(LP2)가 도시되어 있고, 제2 경로 포인트(LP2)들을 서로 연결하면 제2 레이어(L2) 상에서의 제2 비행 경로가 된다. 무인비행체(30)는 자신의 비행 경로가 설정된 제2 레이어(L2) 상의 제2 비행 경로를 따라 자율 비행하다 전방에 장애물(도시된 예에 따르면, 나무)을 감지하면, 제2 레이어(L2)보다 고도가 높은 상위 레이어인 제1 레이어(L1)로 상승 비행한 후, 상위 레이어에서 경로 포인트를 따라 비행하다 다시 제1 레이어(L1)로 하강 비행한 후 제1 레이어(L1) 상의 경로 포인트에 의한 비행 경로를 따라 자율 비행할 수 있다. 무인비행체(30)는 최초 자신에게 할당되지 않은 레이어인 제1 레이어(L1) 상에서 자율 비행할 때는 제2 레이어(L2) 상의 제2 경로 포인트(LP2)가 수직 방향으로 제1 레이어(L1) 상에 매핑된 대체 포인트(RP)들을 따라 비행할 수 있다. 즉, 무인비행체(30)는 제2 레이어(L2)의 N번째 제2 경로 포인트에 도달한 후 제1 레이어(L1)로 상승 비행할 때 N+1번째 제2 경로 포인트가 수직 방향으로 맵핑된 제1 레이어(L1) 상의 대체 포인트(RP)로 이동할 수 있다. 여기서의 N번째 제2 경로 포인트는 무인비행체(30)가 장애물을 인식한 시점에서의 앞으로 경유할 첫번째 제2 경로 포인트가 될 수 있다. 그리고, 무인비행체(30)가 나머지 대체 포인트(RP)을 따라 제1 레이어(L1) 상에서 이동할 수 있다. 그리고, 무인비행체(30)가 제1 레이어(L1)의 마지막 대체 포인트에 도달한 후 제2 레이어(L2)로 하강 비행할 때, 마지막 대체 포인트를 맵핑한 제2 레이어(L2) 상의 제2 경로 포인트의 다음번 제2 경로 포인트로 이동할 수 있다. 그리고, 무인비행체(30)는 제2 레이어(L2) 상의 나머지 제2 경로 포인트를 따라 자율 비행할 수 있다. 일부 실시예에서, 무인비행체(30)가 제1 레이어(L1) 상에서 대체 포인트(RP)를 따라 이동할 때 무인비행체(30)는 제2 레이어(L2) 상에서 이동시 감지했던 장애물이 더 이상 자신의 하측 방향에서 감지되지 않는다고 판단할 때까지 대체 포인트(RP)를 따라 이동하는 것으로 시뮬레이션될 수 있다. 실시예는, 갑작스러운 장애물이나 자율항법지도 상에 반영되지 않은 장애물이거나 자율항법지도 상에 반영되어 있었으나 형태나 크기가 가변적인 피사체로 인하여 비행 경로 상에 장애물로 취급될 수 있는 장애물을 인식한 경우, 다른 레이어로 이동하고, 다른 레이어 상에서도 본래의 무인비행체(30)에게 할당된 레이어 상에서의 비행 경로와 동일한 경로로 다른 레이어 상에서도 비행하도록 하여 비행 경로를 형태를 최대한 유지하며 자율 비행할 수 있도록 한다. 한편, 무인비행체(30)가 장애물을 인식한 경우, 상위 레이어로 이동하는 것으로 설명하였으나, 이에 제한되는 것은 아니고 하위 레이어로 이동할 수 있고, 이 경우, 본래 이동하던 레이어 상의 경로 포인트는 하측 방향에 위치한 하위 레이어 상에 맵핑되어 하위 레이어 상에 대체 포인트가 설정될 수 있다. As shown in the first obstacle
장애물 회피 시뮬레이션 인터페이스(140)는 복수의 레이어 각각에서 복수의 무인비행체가 자율 비행하는 경우, 어느 하나의 무인비행체가 장애물 회피 비행 시 다른 무인비행체의 비행 경로의 수정에 관한 시뮬레이션을 제공할 수도 있다.When a plurality of unmanned aerial vehicles autonomously fly in each of a plurality of layers, the obstacle
제2 장애물 회피 시뮬레이션 인터페이스(140b)에서 도시된 바와 같이, 제1 레이어(L1) 상의 제1 경로 포인트(LP1)를 따라 제1 무인비행체(30a)가 자율 비행하고, 제2 레이어(L2)의 제2 경로 포인트(LP2)를 따라 제2 무인비행체(30b)가 자율 비행한다고 가정하면, 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 설명한 바와 같이 제2 무인비행체(30b)는 장애물을 인식하면 자신에게 할당되지 않은 제1 레이어(L1) 상의 대체 포인트(RP)를 따라 비행하면서 장애물을 회피할 수 있다. 이 경우, 제1 레이어(L1) 상의 제1 경로 포인트(LP1)를 따라 자율 비행하는 제1 무인비행체(30a) 부분적으로 비행 경로가 변경될 수 있다. 제1 레이어(L1) 상에는 위험 영역 레이어(DA)가 설정될 수 있다. 위험 영역 레이어(DA)는 제1 레이어(L1)와 중첩될 수 있고, 대체 포인트(RP)를 지나는 가상의 평면이 될 수 있다. 그리고, 위험 영역 레이어(DA)의 모든 경계점은 모든 대체 포인트(RP)들과 미리 설정된 수평 거리만큼 이격되도록 위험 영역 레이어(DA)가 설정될 수 있다. 제1 레이어(L1) 상의 모든 제1 경로 포인트(LP1)들 중에서 위험 영역 레이어(DA)와 중첩되는 제1 경로 포인트는 제1 레이어(L1)의 상위 레이어(L0)로 맵핑되어 상위 레이어(L0) 상에는 제1 경로 포인트를 대체하는 또 다른 대체 포인트가 설정될 수 있다. 그리고, 제1 무인비행체(30a)는 상위 레이어(L0)로 이동하여 대체 포인트를 따라 비행할 수 있다. 상위 레이어(L0) 상의 대체 포인트의 설정 방법은 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 설명한 바와 같고, 제1 무인 비행체(30a)가 비행하는 방식 또한 제1 장애물 회피 시뮬레이션 인터페이스(140a)에서 무인비행체(30)가 비행하는 방식과 동일하게 적용될 수 있다. 실시예에서, 제1 무인비행체(30a)의 제1 레이어(L1) 상에서의 비행 경로 상에서는 장애물이 인식되지 않는다고 하여도, 다른 레이어 상의 무인비행체의 회피 기능에 따라 자신의 레이어(L1)에 다른 무인비행체가 진입하여 비행시 상호 충돌 문제가 발생하거나 다른 무인비행체를 장애물로 인식하게 될 수 있다. 따라서, 제1 무인비행체(30a) 또한 회피 기능을 할 수 있도록 하면서도 위험 영역으로 인식되는 범위를 고려하여 맵핑할 제1 무인비행체(30a)의 경로 포인트의 범위를 결정하여 다른 무인비행체와의 충돌 문제 등을 방지할 수 있다.As shown in the second obstacle
사용자는 시뮬레이션을 통해서 설정된 비행 경로의 안정성을 테스트할 수 있고, 필요에 따라 비행 경로 수정하거나 경로 포인트들 간의 간격을 수정할 수 있다. The user can test the stability of the set flight path through simulation, and can modify the flight path or the spacing between path points as needed.
제1 및 제2 장애물 회피 시뮬레이션 인터페이스(140a, 140b) 각각은 비행 경로 확정 어포던스의 선택에 응답하여 장애물 인식 시 대체 포인트의 설정 방법 데이터, 복수의 무인비행체 비행 시의 위험 영역 레이어(DA)의 설정 방법 데이터를 포함하는 자동항법지도 데이터를 생성하고, 무인비행체(30)가 자동항법지도 데이터에 기초하여 자율 비행할 수 있도록 한다.Each of the first and second obstacle
도 15는 장애물의 인식과 다른 레이어로의 회피 비행 및 경로 포인트 간의 거리 정보의 설정 방법에 관한 인터페이스를 나타낸 것이다.15 illustrates an interface for a method of recognizing an obstacle, avoiding flight to another layer, and setting distance information between route points.
도 15에 도시된 레이어 상의 비행 경로는 장애물을 인식하지 못한 상태에서 최초 설정된 레이어 상의 비행 경로이다. The flight path on the layer shown in FIG. 15 is the flight path on the first layer set without recognizing the obstacle.
도 10에서 경로 설정 인터페이스(130)는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체(30)가 비행할 수 있는 복수의 레이어를 자동으로 형성한 후, 도 15에서와 같은 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)를 표시할 수 있다.In FIG. 10, the
도 15를 참조하면, 레이어(L) 상의 비행 경로는 복수의 경로 포인트로 구성될 수 있다. 무인비행체(30)는 자신에게 할당된 레이어(L) 상의 경로 포인트(LP)를 경유하면서 비행 경로를 따라 비행하게 된다. 일부 실시예에서, 최인접한 경로 포인트 상호간의 최대 이격 거리는 미리 설정된 무인비행체(30)의 최대 속도, 미리 설정된 무인비행체(30)가 전방의 장애물의 존재를 인식하는 시점에서의 무인비행체(30)와 장애물 사이의 최소 이격 거리 값(rl)에 기초하여 결정될 수 있다. 여기서의 최소 이격 거리 값(rl)은 무인비행체(30)의 자체 성능에 따라서 달라지는 값으로 자율항법지도 설정 시 무인비행체(30)의 자체의 성능을 고려하여 미리 결정될 수 있다.Referring to FIG. 15, a flight path on a layer (L) may be composed of a plurality of path points. The unmanned
도 15의 (a)를 참조하면, 임의의 경로 포인트에서 다음 경로 포인트까지의 비행 거리(l1, l2, l3, l4, l5, l6)는 지속적으로 달라질 수 있다. 다만, 최인접한 경로 포인트 사이의 비행 거리(l1, l2, l3, l4, l5, l6)를 빗변으로 하는 직각삼각형을 고려할 수 있다. 이 때, 모든 직각삼각형의 밑변은 x1이 될 수 있다. 일부 실시예에서, 모든 직각삼각형의 밑변의 값은 동일하게 경로 포인트가 설정될 수 있다. 그리고, 직각삼각형에서 최인접한 두개의 경로 포인트 중 출발 지점에 대응하는 경로 포인트를 꼭지점하고 해당 꼭지점의 각도를 tehta로 정의한다. 그리고, 여기서의 x1은 “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)” 값이 될 수 있다. 즉, “최인전합 경로 포인트 사이의 무인비행체의 비행거리"와 cos(theta)의 곱으로 정의될 수 있다.Referring to (a) of FIG. 15 , flight distances (l1, l2, l3, l4, l5, l6) from an arbitrary route point to the next route point may continuously vary. However, a right triangle having the hypotenuse of the flight distance (l1, l2, l3, l4, l5, l6) between the nearest path points may be considered. At this time, the bases of all right triangles can be x1. In some embodiments, the path points may be set to have the same base value of all right triangles. Then, among the two closest path points in the right triangle, a path point corresponding to the starting point is defined as a vertex, and an angle of the vertex is defined as tehta. In addition, x1 here may be a value of “flying distance of the UAV between points of the shortest combined path” * “cos(theta)”. In other words, it can be defined as the product of “the flight distance of the UAV between the most inclusive path points” and cos(theta).
무인비행체(30)가 장애물을 인식할 때의 무인비행체(30)와 장애물 사이의 거리를 rl로 정의한다. rl은 레이어(L)의 길이 방향과 수평한 방향으로 무인비행체(30)와 장애물 사이의 거리로 정의할 수 있다.The distance between the unmanned
무인비행체(30)는 장애물의 효율적인 회피를 위해서 무인비행체(30)와 장애물 사이의 최소 충돌 방지 거리(ep)에 도달하기 전에 회피 비행을 해야 한다고 가정한다. 최소 충돌 방지 거리(ep)는 레이어(L)의 길이 방향과 수평한 방향으로 무인비행체(30)와 장애물 사이의 거리로 정의할 수 있다.It is assumed that the unmanned
무인비행체(30)가 l1 비행 거리에 대응하는 경로로 이동하는 중에 장애물을 인식하면 앞으로 경유할 경로 포인트에서 회피 비행을 할 수 있다. 회피 비행이 개시되는 경로 포인트와 장애물 사이의 직선 거리는 최소 충돌 방지 거리(ep)보다 크기 때문에 무인비행체(30)와 장애물의 충돌 문제가 발생되지 않고 안전하게 회피 비행을 할 수 있다. If an obstacle is recognized while the unmanned
도 15의 (b)를 참조하면, “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)”값인 x2는 (a)에서의 x1보다는 큰 값을 가진다는 것을 알 수 있다. 이 경우, 무인비행체(30)가 l1 비행 거리에 대응하는 경로로 이동하는 중에 장애물을 인식하면 앞으로 경유할 경로 포인트에서 회피 비행을 할 수 있다. 회피 비행이 개시되는 경로 포인트와 장애물 사이의 직선 거리는 최소 충돌 방지 거리(ep)보다 작기 때문에 무인비행체(30)가 회피 비행이 개시되는 경로 포인트에서 상위나 하위 레이어로 회피 비행시 장애물의 충돌 문제가 발생할 수 있다. 따라서, “최인전합 경로 포인트 사이의 무인비행체의 비행거리”*”cos(theta)”의 최대치를 제한함으로써 예상치 못한 장애물에 대한 안전한 회피 비행이 가능하도록 한다. 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)는 사용자로 하여금 최인접한 경로 포인트 간의 최소 거리(x1)과 최대 거리(x2)를 조정할 수 있도록 한다. 경로 포인트 간의 거리 정보의 설정을 위한 인터페이스(150)는 시뮬레이션 어포던스의 선택에 응답하여 설정된 최인접한 경로 포인트 간의 최소 거리(x1)과 최대 거리(x2)에 기초하여 미리 설정된 비행 경로를 구성하는 경로 포인트들 상호간의 거리를 조절하고, 무인비행체(30)가 전방의 장애물의 존재를 인식하는 시점에서의 무인비행체(30)와 장애물 사이의 최소 이격 거리 값(rl), 최소 충돌 방지 거리(ep) 및 비행 경로 등을 표시하여 사용자로 하여금 경로 포인트 사이의 최대 및 최소 이격 거리를 확인할 수 있도록 한다. 사용자는 최대 및 최소 이격 거리에 기초하여 세부적인 비행 경로를 설정할 수 있다. 따라서, 갑작스러운 장애물을 고려하면서도 비행 경로 설정의 자유도를 높일 수 있다.Referring to (b) of FIG. 15 , it can be seen that x2, which is the value of “flight distance of the UAV between the closest merge path points” * “cos(theta)”, has a larger value than x1 in (a). In this case, if the unmanned
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. A hardware device may be modified with one or more software modules to perform processing according to the present invention and vice versa.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between the components shown in the drawings are examples of functional connections and / or physical or circuit connections, which can be replaced in actual devices or additional various functional connections, physical connection, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, the detailed description of the present invention described has been described with reference to preferred embodiments of the present invention, but those skilled in the art or those having ordinary knowledge in the art will find the spirit of the present invention described in the claims to be described later. And it will be understood that the present invention can be variously modified and changed without departing from the technical scope. Therefore, the technical scope of the present invention is not limited to the contents described in the detailed description of the specification, but should be defined by the claims.
Claims (6)
수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및
상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고,
무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하고,
상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및
상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상의 복수의 지점의 선택에 응답하여 선택된 지점을 연결하는 비행 경로를 설정하고, 설정된 비행 경로를 따라 무인비행체가 이동하며 촬영한 영상을 재생하는 단계;를 더 포함하고,
상기 경로 설정 인터페이스 상에서 설정된 무인비행체의 비행 속도에 기초하여 영상의 재생 속도가 변경되고,
상기 경로 설정 인터페이스 상에 표시된 지도 이미지 상에 촬영된 피사체의 종류 정보를 표시하는 단계;
상기 종류 정보 내의 복수의 항목 중 어느 하나의 선택에 응답하여 상기 경로 설정 인터페이스 상에 표시된 지도 이미지 내에서 선택된 항목에 매칭되는 영역에 그리드 맵을 표시하는 단계;
상기 그리드 맵 내에서 무인비행체의 비행 경로를 설정 및 수정할 수 있도록 하는 편집용 그리드 맵을 표시하는 단계; 및
상기 그리드 맵은 복수의 부분 그리드로 구성되고, 상기 복수의 부분 그리드들 중 어느 하나의 선택에 응답하여 선택된 부분 그리드 내의 세부 비행 경로의 설정 및 수정을 허용하는 인터페이스를 제공하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.Displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device;
displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and
Including; displaying control status, flight path, and state information of the unmanned aerial vehicle of the selected work area among the plurality of work areas,
displaying at least one of image information obtained by capturing the selected work area while the UAV is flying, route information on a path the UAV has already flown along a flight path, and information on a current location of the UAV within the selected work area;
displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and
In response to selection of a plurality of points on the map image displayed on the route setting interface, setting a flight path connecting the selected points, and reproducing the captured image while the UAV moves along the set flight path; do,
The reproduction speed of the image is changed based on the flight speed of the unmanned aerial vehicle set on the route setting interface;
displaying type information of a photographed subject on a map image displayed on the route setting interface;
displaying a grid map in an area matching the selected item in the map image displayed on the route setting interface in response to selection of any one of a plurality of items in the type information;
displaying a grid map for editing allowing the flight path of the unmanned aerial vehicle to be set and modified within the grid map; and
The grid map is composed of a plurality of partial grids, and providing an interface allowing setting and modification of detailed flight paths in the selected partial grid in response to selection of any one of the plurality of partial grids; further comprising
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하는 단계; 및
상기 표시된 지적도 이미지 상의 일 지점의 선택에 응답하여 선택된 지점을 무인비행체가 촬영한 이미지를 상기 선택된 일 지점에 중첩하여 표시하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.According to claim 1,
displaying, in the user interface, a cadastral map image matching the searched address in response to selection of the cadastral map affordance; and
Responding to the selection of a point on the displayed cadastral map image, displaying an image taken by an unmanned aerial vehicle of the selected point superimposed on the selected point;
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
상기 유저 인터페이스는 지적도 어포던스의 선택에 응답하여 검색된 주소에 매칭되는 지적도 이미지를 표시하고, 무인비행체가 표시된 지적도 이미지 상의 지역을 촬영한 이미지를 상기 지적도 이미지와 중첩하여 표시하는 단계; 및
상기 촬영한 이미지와 상기 지적도 이미지가 중첩되지 않는 영역의 선택에 응답하여 선택된 지점을 촬영한 이미지를 불러드려 상기 중첩되지 않는 영역에 정합하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.According to claim 1,
displaying, by the user interface, a cadastral map image matching the searched address in response to selection of the cadastral map affordance, and overlapping and displaying an image of a region on the cadastral map image on which the unmanned aerial vehicle is displayed; and
Responding to selection of an area where the captured image and the cadastral map image do not overlap, loading an image of a selected point and matching the selected area to the non-overlapping area
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
수신된 주소 정보 매치되는 지도 이미지 및 상기 지도 이미지와 중첩하여 복수의 작업 영역과 작업 정보를 표시하는 단계; 및
상기 복수의 작업 영역 중 선택된 작업 영역의 방제 상태, 비행 경로, 무인비행체의 상태 정보를 표시하는 단계;를 포함하고,
무인비행체가 비행하며 상기 선택된 작업 영역을 촬영한 영상 정보, 무인비행체가 비행 경로를 따라 이미 비행한 경로 정보, 무인비행체가 상기 선택된 작업 영역 내의 현재 위치 정보 중 적어도 하나를 표시하고,
상기 유저 인터페이스 상의 경로설정 어포던스의 선택에 응답하여 지도 이미지가 표시된 경로 설정 인터페이스를 표시하는 단계; 및
상기 경로 설정 인터페이스는 비행 레이어 설정 어포던스의 선택에 응답하여 무인비행체가 비행할 수 있는 복수의 레이어를 설정하는 단계;를 더 포함하고,
상기 복수의 레이어를 설정하는 단계는, 표면 스캐닝 데이터로부터 피사체들의 포인트 클라우드를 획득하고, 상기 포인트 클라우드의 분석에 기초하여 상기 피사체들을 식별하고, 포인트 클라우드의 분석에 기초하여 상기 피사체들의 특정 포인트들을 연결하는 복수의 레이어를 설정하여, 상기 복수의 레이어 중 어느 하나의 레이어 상에서 상기 무인비행체가 자율 주행 가능하도록 하는 비행 경로를 설정하도록 하고,
상기 무인비행체가 비행 경로 상에서 장애물을 인식하면 상기 무인비행체에게 할당된 레이어와 다른 레이어로 회피 이동하되 상기 무인비행체에게 할당된 레이어 상에서의 비행 경로의 형태를 유지하며 상기 다른 레이어 상에서 비행하는 것을 시뮬레이션하는 장애물 회피 시뮬레이션 인터페이스를 제공하는 단계;를 더 포함하는
자율비행이 가능한 무인비행체를 이용하여 자율 방제를 수행하는 방법.Displaying a user interface by executing a ground control program for autonomous flight and autonomous control of an unmanned aerial vehicle executed on a computing device;
displaying a map image matching the received address information and a plurality of work areas and work information overlapping the map image; and
Including; displaying control status, flight path, and state information of the unmanned aerial vehicle of the selected work area among the plurality of work areas,
displaying at least one of image information obtained by capturing the selected work area while the UAV is flying, route information on a path the UAV has already flown along a flight path, and information on a current location of the UAV within the selected work area;
displaying a route setting interface displaying a map image in response to selection of a route setting affordance on the user interface; and
The route setting interface further comprises setting a plurality of layers through which the unmanned aerial vehicle can fly in response to selection of a flight layer setting affordance;
The setting of the plurality of layers may include obtaining a point cloud of objects from surface scanning data, identifying the objects based on the analysis of the point cloud, and connecting specific points of the objects based on the analysis of the point cloud. By setting a plurality of layers to set a flight path that allows the unmanned aerial vehicle to autonomously travel on any one of the plurality of layers,
When the UAV recognizes an obstacle on the flight path, avoid moving to a layer other than the layer assigned to the UAV, but maintain the shape of the flight path on the layer assigned to the UAV and simulate flying on the other layer providing an obstacle avoidance simulation interface; further comprising
A method of performing autonomous control using an unmanned aerial vehicle capable of autonomous flight.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210125253A KR102467859B1 (en) | 2021-09-17 | 2021-09-17 | A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210125253A KR102467859B1 (en) | 2021-09-17 | 2021-09-17 | A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102467859B1 true KR102467859B1 (en) | 2022-11-16 |
Family
ID=84235828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210125253A KR102467859B1 (en) | 2021-09-17 | 2021-09-17 | A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102467859B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017157892A (en) * | 2016-02-29 | 2017-09-07 | キヤノン株式会社 | Display device and control method thereof |
KR102090611B1 (en) * | 2019-10-10 | 2020-03-18 | 경남도립거창대학산학협력단 | Disaster Prevention Control Management System and Control Disaster Prevention Management Method Using the Same |
KR20200072215A (en) | 2018-12-12 | 2020-06-22 | 한국생산기술연구원 | System for management and control of pest spraying drone, and control method for the same |
KR102129408B1 (en) * | 2020-01-30 | 2020-07-02 | 주식회사 디지털커브 | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map |
-
2021
- 2021-09-17 KR KR1020210125253A patent/KR102467859B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017157892A (en) * | 2016-02-29 | 2017-09-07 | キヤノン株式会社 | Display device and control method thereof |
KR20200072215A (en) | 2018-12-12 | 2020-06-22 | 한국생산기술연구원 | System for management and control of pest spraying drone, and control method for the same |
KR102090611B1 (en) * | 2019-10-10 | 2020-03-18 | 경남도립거창대학산학협력단 | Disaster Prevention Control Management System and Control Disaster Prevention Management Method Using the Same |
KR102129408B1 (en) * | 2020-01-30 | 2020-07-02 | 주식회사 디지털커브 | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11835561B2 (en) | Unmanned aerial vehicle electromagnetic avoidance and utilization system | |
US20230400853A1 (en) | Adjusting a uav flight plan based on radio frequency signal data | |
Balta et al. | Integrated data management for a fleet of search‐and‐rescue robots | |
Barrientos et al. | Aerial remote sensing in agriculture: A practical approach to area coverage and path planning for fleets of mini aerial robots | |
Eisenbeiss et al. | Investigation of UAV systems and flight modes for photogrammetric applications | |
Recchiuto et al. | Post‐disaster assessment with unmanned aerial vehicles: A survey on practical implementations and research approaches | |
Hernandez-Lopez et al. | An automatic approach to UAV flight planning and control for photogrammetric applications | |
US11725940B2 (en) | Unmanned aerial vehicle control point selection system | |
CN109283937A (en) | A kind of plant protection based on unmanned plane sprays the method and system of operation | |
US10921825B2 (en) | System and method for perceptive navigation of automated vehicles | |
Cui et al. | Search and rescue using multiple drones in post-disaster situation | |
EP3799618B1 (en) | Method of navigating a vehicle and system thereof | |
Huang et al. | A method for using unmanned aerial vehicles for emergency investigation of single geo-hazards and sample applications of this method | |
CN213302860U (en) | Three-dimensional visual obstacle avoidance system of unmanned aerial vehicle | |
CN113238576A (en) | Positioning method for unmanned aerial vehicle and related device | |
CN110515390A (en) | Aircraft Autonomous landing method and device, electronic equipment, storage medium | |
Pestana et al. | Overview obstacle maps for obstacle‐aware navigation of autonomous drones | |
Keyvanfar et al. | Optimization and trajectory analysis of drone’s flying and environmental variables for 3D modelling the construction progress monitoring | |
CN112286228A (en) | Unmanned aerial vehicle three-dimensional visual obstacle avoidance method and system | |
KR102467859B1 (en) | A method for performing automatic control using an unmanned aerial vehicle capable of autonomous flight and a ground control system therefor | |
Kamat et al. | A survey on autonomous navigation techniques | |
Anand et al. | Drones for Disaster Response and Management | |
Subramanian et al. | Integrating Computer Vision and Photogrammetry for Autonomous Aerial Vehicle Landing in Static Environment | |
CN210072405U (en) | Unmanned aerial vehicle cooperative control verification platform | |
Zimmermann | Flight test results of helicopter approaches with trajectory guidance based on in-flight acquired LIDAR data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |