KR102204564B1 - Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle - Google Patents

Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle Download PDF

Info

Publication number
KR102204564B1
KR102204564B1 KR1020200037553A KR20200037553A KR102204564B1 KR 102204564 B1 KR102204564 B1 KR 102204564B1 KR 1020200037553 A KR1020200037553 A KR 1020200037553A KR 20200037553 A KR20200037553 A KR 20200037553A KR 102204564 B1 KR102204564 B1 KR 102204564B1
Authority
KR
South Korea
Prior art keywords
location information
unmanned aerial
aerial vehicle
image
points
Prior art date
Application number
KR1020200037553A
Other languages
Korean (ko)
Inventor
이홍준
Original Assignee
주식회사 디지털커브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디지털커브 filed Critical 주식회사 디지털커브
Priority to KR1020200037553A priority Critical patent/KR102204564B1/en
Application granted granted Critical
Publication of KR102204564B1 publication Critical patent/KR102204564B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

A method for controlling an unmanned aerial vehicle including a camera, a second mobile terminal, and a survey antenna performed by a first mobile terminal controls the unmanned aerial vehicle and collect location information of a target to generate a first mesh associated with the target so that a camera obtains an image of the target at each of the first points on a path and obtains location information of the target at each of the second points on the path while a drone flies over the path.

Description

측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법{METHOD FOR CONTROLLING UNMANNED AIR VEHICLE ACQUIRING LOCATION INFORMATION USING SURVEY ANTENNA AND METHOD FOR GENERATING LOCATION-MATCHED IMAGE BASED ON LOCATION INFORMATION ACQUIRED FROM UNMANNED AIR VEHICLE}A method of controlling an unmanned aerial vehicle that acquires location information using a surveying antenna, and a method of generating a location matching image based on the location information obtained from the unmanned aerial vehicle. LOCATION-MATCHED IMAGE BASED ON LOCATION INFORMATION ACQUIRED FROM UNMANNED AIR VEHICLE}

실시예들은 무인 비행체를 제어하는 방법에 관한 것으로, 특히, 무인 비행체에 포함된 모바일 단말과 측량 안테나를 사용하여 대상지의 위치 정보를 획득하도록 무인 비행체를 제어하고, 획득된 위치 정보를 사용하여 대상지에 관한 정합 이미지를 생성하는 방법에 관한 것이다. The embodiments relate to a method of controlling an unmanned aerial vehicle, and in particular, controlling the unmanned aerial vehicle to acquire location information of the destination using a mobile terminal and a survey antenna included in the unmanned aerial vehicle, and using the obtained location information It relates to how to create a matching image.

측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다. 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. Surveying is an indispensable task in constructing buildings or facilities. In surveying a target site (eg, a commercial site), there are cases in which a person may not be able to directly measure at least a part of the survey target site due to environmental or geographic factors of the survey target site. In this case, a survey may be made on the survey target using an unmanned aerial vehicle such as a drone. By utilizing an image (photo) of a survey target taken using an unmanned aerial vehicle for surveying, surveying may be possible even in an area that cannot be directly surveyed by a person on the survey target.

무인 비행체를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체에 의해 촬영된 이미지들은 GPS에 기반한 위치 정보를 포함하게 되는 바, (측량) 대상지에 대한 촬영에 따라 생성된 이미지는 미터 단위 이상의 오차를 포함하게 된다. 따라서, 이러한 이미지를 사용하여 대상지에 대한 정합 이미지를 생성할 경우 정합 이미지의 위치 정확성이 담보될 수 없다. In the case of performing a survey using an unmanned aerial vehicle, the images captured by the unmanned aerial vehicle include location information based on GPS.(Survey) The image generated according to the photographing of the target site has an error of more than a meter. Will be included. Therefore, when a registration image for a target location is generated using such an image, the positional accuracy of the registration image cannot be guaranteed.

대상지에 대해, 보다 정밀한 위치 정보를 획득하기 위해서는, 대상지에 정밀 위치 정보의 획득을 위한 (무인 비행체와 통신하는) 지상국을 별도로 설치하거나, 대상지의 복수의 위치에 대해 기준 위치 정보를 포함하는 GCP (Ground Control Point)를 설치할 필요가 있다. 그러나, 대상지의 환경에 따라 이러한 지상국/GCP의 설치가 어려운 경우에는, 대상지에 대한 정밀 위치 정보를 획득하기가 어렵게 된다. In order to obtain more precise location information for the target site, separate ground stations (communicating with the unmanned aerial vehicle) for obtaining precise location information at the target site, or GCP (which includes reference location information for multiple locations of the target site) Ground Control Point) needs to be installed. However, when it is difficult to install such a ground station/GCP according to the environment of the target site, it is difficult to obtain precise location information on the target site.

따라서, 대상지에 대해 별도의 지상국 또는 GCP를 설치할 필요 없이, 무인 비행체의 비행만으로 대상지에 대해 보다 정밀한 위치 정보를 획득할 수 있으며, 나아가 이러한 위치 정보를 사용하여 대상지에 대한 정합 이미지를 생성할 수 있도록 하는 방법이 요구된다. Therefore, without the need to install a separate ground station or GCP for the target site, it is possible to obtain more precise location information for the target site only by flying by an unmanned aerial vehicle, and furthermore, to create a matched image for the target site using this location information. How to do it is required.

한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Patent Registration No. 10-1532582 (registration date June 24, 2015) relates to a method of processing cadastral survey data, and each parcel is for the purpose of registering land for land study or restoring the boundary registered for cadastral study on the surface. Disclosed is a method for processing cadastral survey data that enables efficient and systematic maintenance and management of cadastral survey data obtained when setting a reference point for surveying the boundary or area of a site.

상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only, may include content that does not form part of the prior art, and may not include what the prior art may present to a person skilled in the art.

일 실시예는, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법으로서, 무인 비행체가 경로를 비행하는 동안, 카메라가 경로 상의 제1 지점들의 각각에서 대상지의 이미지를 획득하고, 경로 상의 소정의 캘리브레이션 포인트들을 포함하는 제2 지점들의 각각에서 대상지의 위치 정보를 획득하도록, 무인 비행체를 제어하고, 대상지의 위치 정보를 수집하여 대상지와 연관된 제1 메시를 생성하는 방법을 제공할 수 있다. One embodiment is a method of controlling an unmanned aerial vehicle including a camera, a second mobile terminal, and a surveying antenna, performed by a first mobile terminal, wherein the camera is a first point on the path while the unmanned aerial vehicle is flying on the path. Control the unmanned aerial vehicle to acquire the image of the target site from each of the fields and acquire the location information of the target site at each of the second points including predetermined calibration points on the route, and collect the location information of the target site 1 Can provide a way to generate the mesh.

일 실시예는, 무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 위치 정보에 기반하여 생성된 제1 메시와, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지에 기반하여 생성된 제2 메시를 정합함으로써, 위치 정보가 보정된 대상지의 이미지로서 정합 이미지를 생성하는 방법을 제공할 수 있다. In one embodiment, the first mesh generated based on the location information of the target site acquired using the surveying antenna of the unmanned aerial vehicle and the second mesh generated based on the image of the target site captured by the camera of the unmanned aerial vehicle are matched. By doing so, it is possible to provide a method of generating a matched image as an image of a target site whose positional information is corrected.

일 측면에 있어서, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법에 있어서, 상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고, 상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계 및 상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계를 포함하고, 상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계를 포함하고, 상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법이 제공된다. In one aspect, in a method for controlling an unmanned aerial vehicle including a camera, a second mobile terminal, and a surveying antenna performed by a first mobile terminal, the unmanned aerial vehicle is controlled by the first mobile terminal , Controls the unmanned aerial vehicle so that it is controlled to fly a preset path on the target site, and while flying the path, the camera captures the target site at each of a plurality of first points on the path to obtain an image of the target site The step of, while flying the route, controlling the unmanned aerial vehicle so that the second mobile terminal acquires location information of the target location at each of a plurality of second points on the route using the survey antenna, the Collecting location information of the target location from a second mobile terminal and generating a first mesh associated with the target location based on the collected location information, wherein the second points include at least two calibration points And, the step of controlling the unmanned aerial vehicle to obtain the location information of the target site, comprising the step of controlling the unmanned aerial vehicle to stop for a predetermined time at each of the calibration points, the first mesh A method of controlling an unmanned aerial vehicle is provided that is matched with the image of the target site and used to correct the location information included in the image of the target site.

상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함할 수 있다. The calibration points may include a point corresponding to a vertex of the route on the route among the second points.

상기 제1 메시를 생성하는 단계는, 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계 및 상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계를 포함할 수 있다.The generating of the first mesh may include converting the location information of the target site at each of the second points into coordinates of a spherical coordinate system based on the calibration points of the calibration points, and based on the converted coordinates Thus, it may include generating the first mesh by dividing the target area into a plurality of regions.

다른 일 측면에 있어서, 상기 제1 모바일 단말 또는 외부 서버에서, 상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계, 상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계, 상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계 및 상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계를 더 포함하는, 대상지에 대한 정합 이미지 생성 방법이 제공된다. In another aspect, in the first mobile terminal or an external server, acquiring an image of the target site photographed by the camera, generating a second mesh based on the image of the target site, the first mesh Correcting the second location information of the target area included in the second mesh based on the first location information of the target area included in, and based on the result of the correction and the image of the target area, the target area There is provided a method of generating a registration image for an object, further comprising generating a registration image for

상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고, 상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고, 상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체될 수 있다. The first location information includes coordinates of the target site at each of the second points converted into coordinates of a spherical coordinate system based on each calibration point of the calibration points, and the second location information is an image of the target site In the step of correcting and including the central point coordinates of, the central point coordinates may be replaced with coordinates included in the first location information corresponding to the central point coordinates.

상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고, 상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함할 수 있다. The location information of the target site acquired by the second mobile terminal at each of the plurality of second points on the route using the survey antenna includes plane coordinates and height coordinates at each of the second points, and the second 1 The location information may include plane coordinates at each of the second points obtained by correcting the plane coordinates based on the height coordinates.

상기 카메라는 짐벌에 장착되고, 상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고, 상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함할 수 있다. The camera is mounted on the gimbal, and the image of the target site photographed at each of the first points includes the center coordinate of the image and information on the rotation angle of the gimbal when the image is captured, and the second position information May include the corrected center point coordinates of the image obtained by correcting the center point coordinates based on the rotation angle information and the height information of the unmanned aerial vehicle.

상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고, The second mobile terminal is operated as a client for the first mobile terminal that obtains the location information of the target location at each of the second points measured by the survey antenna and transmits it to the first mobile terminal, ,

상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.The first mobile terminal is operated as a server for the second mobile terminal that obtains the location information of the target location from the second mobile terminal and processes the location information of the target location to generate the first mesh. How to control the vehicle.

상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고, 상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함할 수 있다. The controlling of the unmanned aerial vehicle to acquire an image of the destination may include controlling the unmanned aerial vehicle to acquire an image of the destination by photographing the destination at each of the first points arranged at predetermined intervals on the path, and , The controlling of the unmanned aerial vehicle to obtain the location information of the destination may include, at a predetermined time interval on the route, the second mobile terminal using the survey antenna to obtain the location information of the destination. And the second points may include points on the path at which the location information of the target site is obtained at the predetermined time interval.

상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고, 상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들일 수 있다. The calibration points are preset points on the route, and points other than the calibration points among the second points are, at the predetermined time interval, between the calibration points on the route where the location information of the target site is obtained. It may be points located at.

카메라, 제2 모바일 단말 및 예컨대, DGPS 안테나와 같은 측량 안테나를 포함하는 무인 비행체를 사용하여 대상지를 비행하여, 대상지의 위치 정보를 획득함으로써, 무인 비행체를 사용하여 대상지를 측량함에 있어서, 별도의 지상국이나 GCP를 대상지에 설치하지 않고도, 기존의 GPS에 기반한 위치 정보에 비해 보다 정밀한 위치 정보를 획득할 수 있다. By using an unmanned aerial vehicle including a camera, a second mobile terminal, and, for example, a surveying antenna such as a DGPS antenna, to fly the target area and obtain the location information of the target area, a separate ground station Or, it is possible to obtain more precise location information compared to existing GPS-based location information without installing GCP on the target site.

무인 비행체를 사용하여, 무인 비행체의 경로 상의 지점들에서 위치 정보를 획득함에 있어서, 상기 지점들 중 캘리브레이션 포인트에 해당하는 지점에서는 무인 비행체가 소정의 시간 동안 정지하도록 제어됨으로써, 위치 정보의 캘리브레이션을 위해 사용되는 보다 정확한 위치 값을 획득할 수 있다. In obtaining location information at points on the path of the unmanned aerial vehicle using an unmanned aerial vehicle, the unmanned aerial vehicle is controlled to stop for a predetermined time at a point corresponding to a calibration point among the points, thereby calibrating the location information. It is possible to obtain a more accurate position value used.

무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 정밀 위치 정보에 기반하여, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지의 위치 정보를 보정함으로써, 대상지에 대한 정밀 위치 정보를 포함하는 정합 이미지를 생성할 수 있다. Based on the precise location information of the target area acquired using the surveying antenna of the unmanned aerial vehicle, by correcting the location information of the image of the target area captured by the camera of the unmanned aerial vehicle, a matched image including the precise location information of the target area is generated. can do.

도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다.
도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다.
도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다.
1 illustrates a method of processing images of a target site and location information of a target site acquired from an unmanned aerial vehicle, according to an embodiment.
FIG. 2 is a block diagram illustrating an unmanned aerial vehicle, and a mobile terminal and a server that process images of a destination and location information of the destination obtained from the unmanned aerial vehicle, according to an exemplary embodiment.
3 is a flowchart illustrating a method of controlling an unmanned aerial vehicle to obtain image and location information of a target site according to an exemplary embodiment.
4 is a flowchart illustrating a method of generating a matching image for a target place by processing an image and location information acquired for a target place, according to an exemplary embodiment.
5 illustrates a method of obtaining an image and location information of a target site by an unmanned aerial vehicle as it flies a path according to an example.
6 illustrates a method of generating a matched image by matching a first mesh based on location information of a target site acquired by a survey antenna and a second mesh based on an image of the target site acquired by a camera, according to an example.
7 and 8 are flowcharts illustrating a method of correcting location information included in an image of a target site acquired by a camera, according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.

도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다. 1 illustrates a method of processing images of a target site and location information of a target site acquired from an unmanned aerial vehicle, according to an exemplary embodiment.

한편, 도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다. Meanwhile, FIG. 2 is a block diagram illustrating an unmanned aerial vehicle and a mobile terminal and a server that process images of a destination and location information of the destination obtained from the unmanned aerial vehicle, according to an exemplary embodiment.

도 1을 참조하여, 무인 비행체(110)에 의한 비행을 통해 대상지(150)에 대해 측량을 수행함에 있어서, 무인 비행체(110)를 제어하고, 무인 비행체(110)로부터 획득된 위치 정보 및 이미지를 처리하는 방법을 설명한다. Referring to FIG. 1, in performing a survey on the target site 150 through flight by the unmanned aerial vehicle 110, the unmanned aerial vehicle 110 is controlled, and the location information and images obtained from the unmanned aerial vehicle 110 are Explain how to handle it.

도 1에서 도시된 대상지(150)는 상업지, 건축 예정지 등을 비롯한 측량의 대상(또는, 무인 비행체(110)의 촬영의 대상)이 되는 구역(토지의 구역)을 나타낼 수 있다. The target site 150 illustrated in FIG. 1 may represent an area (a region of land) that is a target for surveying (or a target for photographing of the unmanned aerial vehicle 110) including a commercial site, a planned construction site, and the like.

무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하면서 대상지(150)를 촬영할 수 있다. 촬영에 따라 획득되는 대상지(150)의 이미지들은 모바일 단말(100) 및/또는 서버(120)로 전달될 수 있고, 모바일 단말(100) 및/또는 서버(120)에서 이러한 이미지들이 처리될 수 있다. The unmanned aerial vehicle 110 may be, for example, a drone. The unmanned aerial vehicle 110 may take a picture of the target site 150 while flying a predetermined path 115 on the target site 150. Images of the target site 150 acquired according to the photographing may be transmitted to the mobile terminal 100 and/or the server 120, and these images may be processed by the mobile terminal 100 and/or the server 120. .

예컨대, 무인 비행체(110)로부터의 이미지들은 소정의 정합 프로세스에 의해 모바일 단말(100) 및/또는 서버(120)에서 정합 이미지로 변환될 수 있다. For example, images from the unmanned aerial vehicle 110 may be converted into a matching image in the mobile terminal 100 and/or the server 120 by a predetermined matching process.

무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 촬영을 통해 대상지(150)의 이미지를 획득할 수 있다. 무인 비행체(110)는 대상지(150)의 촬영을 위한 카메라(260)를 포함할 수 있다.The unmanned aerial vehicle 110 may acquire an image of the target site 150 through photographing at each of the locations on the path 115 by flying a predetermined path 115 on the target site 150. The unmanned aerial vehicle 110 may include a camera 260 for photographing the target site 150.

또한, 무인 비행체(110)는 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 위치 정보를 획득할 수 있다. 이러한 위치 정보의 획득은 전술한 카메라(260)를 통한 촬영과는 별개로 이루어질 수 있다. 무인 비행체(110)는 대상지(150)의 위치 정보의 획득을 위한 측량 안테나(250)를 포함할 수 있다. 측량 안테나(250)는, 무인 비행체(110)가 일반적으로 포함하는 GPS 모듈에 비해 고정밀의 위치 정보를 획득할 수 있도록 하는 안테나일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 이러한 측량 안테나(250)는 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다.In addition, the unmanned aerial vehicle 110 may acquire location information at each of the locations on the path 115 by flying the path 115. Acquisition of such location information may be performed separately from photographing through the camera 260 described above. The unmanned aerial vehicle 110 may include a survey antenna 250 for obtaining location information of the target site 150. The survey antenna 250 may be an antenna capable of obtaining high-precision location information compared to a GPS module generally included in the unmanned aerial vehicle 110. For example, the survey antenna 250 may be a DGPS antenna or an RTK antenna. This surveying antenna 250 may be configured to be detachable from the unmanned aerial vehicle 110.

또한, 무인 비행체(110)에는 측량 안테나(250)를 사용하여 대상지(150)의 위치 정보를 획득함에 있어서, 측량 안테나(250)와 통신하는 단말을 포함할 수 있다. 이러한 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있으며, 모바일 단말(200)일 수 있다. 측량 안테나(250)는 획득된 대상지(150)의 위치 정보를 모바일 단말(200)로 전송할 수 있다. In addition, the unmanned aerial vehicle 110 may include a terminal that communicates with the survey antenna 250 in obtaining the location information of the target site 150 using the survey antenna 250. This terminal 200 may be configured to be detachable from the unmanned aerial vehicle 110, and may be a mobile terminal 200. The survey antenna 250 may transmit the acquired location information of the target site 150 to the mobile terminal 200.

따라서, 무인 비행체(110)는 필요에 따라 측량 안테나(250) 및 모바일 단말(200)을 포함하도록 구성될 수 있다.Therefore, the unmanned aerial vehicle 110 may be configured to include a survey antenna 250 and a mobile terminal 200 as necessary.

무인 비행체(110)로부터의 대상지(150)의 위치 정보 및 이미지는 모바일 단말(100)로 전달될 수 있다. The location information and image of the target site 150 from the unmanned aerial vehicle 110 may be transmitted to the mobile terminal 100.

예컨대, 측량 안테나(250)를 통해 획득된 대상지(150)의 위치 정보는 무인 비행체(110)에 포함된 모바일 단말(200)(이하, 제2 모바일 단말이라 함)을 통해 모바일 단말(100)(이하, 제1 모바일 단말이라 함)로 전달될 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 전달은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 다만, 대상지(150)의 이미지는 (상대적으로 고용량인 바) 비행이 완료된 후 제1 모바일 단말(100)로의 전달은 와이파이(WIFI) 또는 셀룰러 네트워크를 통해 이루어질 수 있다. For example, the location information of the target site 150 obtained through the surveying antenna 250 is transmitted through the mobile terminal 200 (hereinafter referred to as a second mobile terminal) included in the unmanned aerial vehicle 110. Hereinafter, referred to as a first mobile terminal). The transmission of such location information to the first mobile terminal 100 may be performed in real time (or almost in real time) simultaneously (or almost simultaneously) with the acquisition of the location information in the unmanned aerial vehicle 110. However, the image of the target site 150 may be transmitted to the first mobile terminal 100 after the flight is completed (a relatively high capacity bar) through a WiFi or a cellular network.

제1 모바일 단말(100)은 무인 비행체(110)를 제어하기 위해 사용되는 단말일 수 있다. 제1 모바일 단말(100)에는 무인 비행체(110)의 비행을 제어하기 위한 어플리케이션/프로그램이 설치될 수 있다. 사용자는 제1 모바일 단말(100)을 통해 무인 비행체(110)의 비행을 위한 대상지(150) 상의 경로(115)를 설정할 수 있다. 말하자면, 제1 모바일 단말(100)은 무인 비행체(110)의 비행을 위한 스케쥴링을 수행할 수 있고, 무인 비행체(110)에 대해 설정된 경로 및 스케출링에 따른 비행을 명령할 수 있다. The first mobile terminal 100 may be a terminal used to control the unmanned aerial vehicle 110. An application/program for controlling the flight of the unmanned aerial vehicle 110 may be installed in the first mobile terminal 100. The user may set the path 115 on the target site 150 for flight of the unmanned aerial vehicle 110 through the first mobile terminal 100. That is to say, the first mobile terminal 100 may perform scheduling for the flight of the unmanned aerial vehicle 110 and may command a flight according to the route and scheduling set for the unmanned aerial vehicle 110.

또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수신할 수 있고, 수신된 위치 정보를 처리할 수 있다. 제1 모바일 단말(100)은 대상지(150)의 위치 정보를 처리함으로써 대상지에 대한 제1 메시를 생성할 수 있다. Also, the first mobile terminal 100 may receive location information of the target site 150 from the second mobile terminal 200 and may process the received location information. The first mobile terminal 100 may generate a first mesh for the target place by processing the location information of the target place 150.

또한, 제1 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 수신할 수 있다. In addition, the first mobile terminal 100 may receive an image of the target site 150 from the unmanned aerial vehicle 110.

제1 모바일 단말(100)은 대상지(150)의 위치 정보 및 대상지(150)의 이미지를 처리함으로써, 대상지(150)에 대한 정합 이미지를 생성할 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)의 위치 정보에 기반하여 대상지(150)의 이미지의 위치 정보를 보정할 수 있고, 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.The first mobile terminal 100 may generate a matching image for the target site 150 by processing the location information of the target site 150 and the image of the target site 150. For example, the first mobile terminal 100 may correct the location information of the image of the target place 150 based on the location information of the target place 150, and the location information is adjusted to the target place 150 based on the corrected image. You can create a matching image for.

또는, 제1 모바일 단말(100)에서는 대상지(150)의 위치 정보만이 처리되고, 이미지에 대한 처리는 서버(120)에서 수행될 수도 있다. 이 때, 서버(120)는 제1 모바일 단말(100)에 의해 생성된 제1 메시와 대상지(150)의 이미지를 사용하여, 상기 위치 정보가 보정된 이미지를 생성할 수 있고, 이에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.Alternatively, only the location information of the target site 150 is processed in the first mobile terminal 100, and the image processing may be performed in the server 120. In this case, the server 120 may generate an image in which the location information is corrected using the first mesh generated by the first mobile terminal 100 and the image of the target site 150, and based on this, the target site It is possible to generate a matching image for 150.

서버(120)에서 이미지의 (정합) 처리가 이루어지는 경우, 서버(120)는 무인 비행체(110)로부터 이미지들을 직접 획득할 수도 있다. When the image is processed by the server 120, the server 120 may directly acquire images from the unmanned aerial vehicle 110.

실시예에 따라 생성된 대상지(150)에 대한 정합 이미지는 측량 안테나에 의해 획득된 대상지(150)의 보다 정확한 위치 정보를 사용하여, 위치 정보가 보정된 대상지(150)의 이미지에 기반한 것일 수 있다. 따라서, 이러한 정합 이미지는, 카메라(260)에 의해 단순히 촬영되어 획득된 대상지(150)의 이미지(즉, 미터 단위의 오차를 포함하는 GPS 에 기반한 위치 정보를 포함하는 이미지)에 기반하여 생성된 정합 이미지에 비해, 고정밀의 위치 정보(예컨대, 센티미터 또는 밀리미터 단위의 오차를 갖는 위치 정보)를 가질 수 있다. The matching image for the target site 150 generated according to the embodiment may be based on an image of the target site 150 whose location information is corrected by using more accurate position information of the target site 150 obtained by a survey antenna. . Accordingly, such a matched image is generated based on an image of the target site 150 obtained by simply photographing by the camera 260 (ie, an image including location information based on GPS including an error in meters). Compared to an image, it may have high-precision location information (eg, location information having an error in centimeters or millimeters).

정합 이미지는 각각이 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 복수의 이미지들이 결합됨으로써 생성된 대상지(150)의 전체를 나타내는 단일한 이미지일 수 있다. The matched image may be a single image representing the whole of the target site 150 generated by combining a plurality of images each photographing a part of the target site 150 with a predetermined redundancy rate.

실시예에서는, 카메라(260)에 의해 촬영되어 획득된 대상지(150)의 이미지(즉, 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 이미지)들의 위치 정보가 측량 안테나(250)에 의해 획득된 정밀한 위치 정보로 대체되고, 이러한 위치 정보가 대체된 대상지(150)의 이미지들이 결합됨으로써 대상지(150)에 대한 정합 이미지가 생성될 수 있다. In the embodiment, the location information of the image of the target site 150 obtained by being photographed by the camera 260 (that is, an image photographing a part of the target site 150 with a predetermined redundancy rate) is transmitted to the survey antenna 250. It is replaced by the precise location information obtained by the location information, and the images of the target location 150 to which the location information has been replaced are combined, thereby generating a matching image for the target location 150.

아래에서는, 도 2를 참조하여, 무인 비행체(110), 서버(120) 및 모바일 단말(100)의 구체적인 구성들에 대해 설명한다.Below, with reference to FIG. 2, specific configurations of the unmanned aerial vehicle 110, the server 120, and the mobile terminal 100 will be described.

도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 대상지(150)를 비행하여 대상지(150)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 무인 비행체(110)는 특정 지점에서 정지(체공)할 수 있는 장치일 수 있다. As described above with reference to FIG. 1, the unmanned aerial vehicle 110 is a device for photographing the target location 150 by flying the target location 150, and may be, for example, a drone, an unmanned aerial vehicle, or other automatic or radio-controlled vehicle. . The unmanned aerial vehicle 110 may be a device capable of stopping (flying) at a specific point.

무인 비행체(110)는 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로(115)를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말로서 모바일 단말(100)일 수 있음)을 통해 소정의 경로(115)를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 대상지(150)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. The unmanned aerial vehicle 110 may fly a predetermined path 115 including a plurality of way points on the target site 150. The predetermined path may be set by the user of the unmanned aerial vehicle 110. For example, the user of the unmanned aerial vehicle 110 may be a user terminal associated with the unmanned aerial vehicle 110 (for example, a smart phone or a controller or a mobile terminal 100 as a terminal in which an application related to the control of the unmanned aerial vehicle 110 is installed. ), a predetermined path 115 may be set. The user of the unmanned aerial vehicle 110 can designate a plurality of way points on the map representing the target site 150 through the user terminal associated with the unmanned aerial vehicle 110, and the path through which the unmanned aerial vehicle will fly through the specified way points Can be set as

무인 비행체(110)는 경로(115) 상의 각 웨이 포인트에서 대상지(150)를 촬영할 수 있다. 이 때, 촬영된 이미지의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 웨이 포인트와는 별개인 경로(115) 상의 위치가 될 수도 있다. The unmanned aerial vehicle 110 may photograph the target site 150 at each waypoint on the path 115. In this case, the center of the captured image may be a waypoint. Alternatively, the location where the unmanned aerial vehicle 110 photographs the target site 150 may be a location on a path 115 that is separate from the waypoint.

무인 비행체(110)가 대상지(150)를 촬영하는 위치는 촬영된 이미지의 중점이 될 수 있다. 촬영된 이미지의 중점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다. 이러한 위치 정보는 무인 비행체(110)의 GPS 모듈에 기반한 값일 수 있다. The location at which the unmanned aerial vehicle 110 photographs the target site 150 may be the center of the photographed image. The midpoint of the captured image may exist on the path through which the unmanned aerial vehicle 110 flies, and the location information (eg, coordinate value) may be a known value. Such location information may be a value based on the GPS module of the unmanned aerial vehicle 110.

무인 비행체(110)는 통신부, 카메라, 프로세서 및 저장부를 포함할 수 있다. The unmanned aerial vehicle 110 may include a communication unit, a camera, a processor, and a storage unit.

통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be a configuration for the unmanned aerial vehicle 110 to communicate with other devices such as the mobile terminal 100 and the server 120. That is to say, the communication unit is a configuration for the unmanned aerial vehicle 110 to transmit/receive data and/or information wirelessly or wired to other devices such as the mobile terminal 100 and the server 120, and the unmanned aerial vehicle 110 It may be a hardware module such as a network interface card, a network interface chip, and a networking interface port, or a software module such as a network device driver or a networking program.

무인 비행체(110)는 통신부를 통해 모바일 단말(100) 또는 서버(120)와 통신하거나, 이들에게 촬영된 이미지들을 전송할 수 있다.The unmanned aerial vehicle 110 may communicate with the mobile terminal 100 or the server 120 through a communication unit, or may transmit captured images to them.

프로세서는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 프로세서는 도시된 컨트롤러(280)이거나 그 일부일 수 있다. The processor may manage the components of the unmanned aerial vehicle 110 and may be a configuration for controlling the flight of the unmanned aerial vehicle 110 in a predetermined path. For example, the processor may perform processing and calculation of data necessary to control the flight of the unmanned aerial vehicle 110. The processor may be at least one processor of the unmanned aerial vehicle 110 or at least one core within the processor. The processor may be the illustrated controller 280 or may be part of it.

카메라(260)는 비행 중에 대상지(150)를 촬영하기 위한 장치일 수 있다. 카메라는 대상지(150)를 촬영함으로써 이미지(이미지 파일)을 생성할 수 있다. 카메라는 CCD를 포함할 수 있고, 이미지의 해상도는 CCD의 픽셀 크기(화소 크기)에 의해 결정될 수 있다. The camera 260 may be a device for photographing the target site 150 during flight. The camera may generate an image (image file) by photographing the target site 150. The camera may include a CCD, and the resolution of the image may be determined by the pixel size (pixel size) of the CCD.

저장부는 카메라에 의한 촬영에 의해 생성된 이미지를 저장하기 위한 스토리지를 포함할 수 있다. 저장부는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The storage unit may include a storage for storing an image generated by photographing by a camera. The storage unit may be any internal memory of the unmanned aerial vehicle 110 or an external memory device such as a flash memory or an SD card mounted on the unmanned aerial vehicle 110. In addition, the storage unit may store information related to a predetermined route for flight of the unmanned aerial vehicle 110 (eg, information on a map and a way point).

도시된 것처럼, 무인 비행체(110)는 측량 안테나(250), 제2 모바일 단말(200) 및 센서부(270)를 더 포함할 수 있다. 전술된 것처럼, 측량 안테나(250) 및 제2 모바일 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다. As shown, the unmanned aerial vehicle 110 may further include a survey antenna 250, a second mobile terminal 200 and a sensor unit 270. As described above, the surveying antenna 250 and the second mobile terminal 200 may be configured to be detachable from the unmanned aerial vehicle 110.

측량 안테나(250)는 GSP 모듈에 비해 고정밀의 위치 정보를 획득하기 위한 장치일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 측량 안테나(250)는 비행 동안 무인 비행체(110)의 위치 정보를 획득할 수 있다. 획득되는 위치 정보는 평면 위치 정보(2차원 위치 정보)를 포함할 수 있다. 또한, 위치 정보는 무인 비행체(110)의 높이(고도) 정보를 더 포함할 수 있다. 측량 안테나(250)는 예컨대, 지오이드고를 사용하여 무인 비행체(110)의 높이 정보를 획득할 수 있다. 실시예에서, 높이 정보는 평면 위치 정보(평면 좌표)를 보정하기 위해 사용될 수 있다. The survey antenna 250 may be a device for obtaining high-precision location information compared to the GSP module. For example, the survey antenna 250 may be a DGPS antenna or an RTK antenna. The survey antenna 250 may acquire location information of the unmanned aerial vehicle 110 during flight. The acquired location information may include plane location information (2D location information). In addition, the location information may further include height (altitude) information of the unmanned aerial vehicle 110. The surveying antenna 250 may acquire height information of the unmanned aerial vehicle 110 using, for example, a geoid height. In an embodiment, the height information may be used to correct the plane position information (plane coordinates).

모바일 단말(200)은 측량 안테나(250) 및 모바일 단말(100)과 통신하기 위한 장치일 수 있다. 모바일 단말(200)은 측량 안테나(250)에 의한 위치 정보의 획득을 제어할 수 있고, 측량 안테나(250)로부터 위치 정보를 수신하여, 모바일 단말(100)로 송신할 수 있다. 모바일 단말(200)은 모바일 단말(100)과 동일 또는 동종의 단말일 수 있다. 모바일 단말(200)은 무인 비행체(110)의 컨트롤러(280)와도 통신할 수 있다. The mobile terminal 200 may be a device for communicating with the survey antenna 250 and the mobile terminal 100. The mobile terminal 200 may control acquisition of location information by the survey antenna 250, receive location information from the survey antenna 250, and transmit the location information to the mobile terminal 100. The mobile terminal 200 may be the same or the same type of terminal as the mobile terminal 100. The mobile terminal 200 may also communicate with the controller 280 of the unmanned aerial vehicle 110.

센서부(270)는 무인 비행체(110)의 비행에 있어서 요구되는 센싱 데이터를 획득하기 위한 장치일 수 있다. 센서부(270)는 예컨대, 라이다(RIDAR)를 포함할 수 있다. 또한, 센서부(270)는 별도의 높이(고도) 센서를 포함할 수 있다. 센서부(270)가 높이 센서를 포함하는 경우, 이러한 센서부(270)가 획득하는 높이 정보는 측량 안테나(250)가 획득하는 높이 정보에 비해 더 고정밀일 수 있다. The sensor unit 270 may be a device for acquiring sensing data required for flight of the unmanned aerial vehicle 110. The sensor unit 270 may include, for example, RIDAR. In addition, the sensor unit 270 may include a separate height (altitude) sensor. When the sensor unit 270 includes a height sensor, the height information acquired by the sensor unit 270 may be more accurate than the height information acquired by the survey antenna 250.

모바일 단말(100)은 무인 비행체(110)의 비행을 스케쥴링 및 제어하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 위치 정보를 획득하여 처리하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 획득하여 처리할 수도 있다. The mobile terminal 100 may be a device for scheduling and controlling the flight of the unmanned aerial vehicle 110. In addition, the mobile terminal 100 may be a device that obtains and processes the location information of the target site 150 from the unmanned aerial vehicle 110. In addition, the mobile terminal 100 may acquire and process an image of the target site 150 from the unmanned aerial vehicle 110.

모바일 단말(100)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 모바일 단말(100)은 무인 비행체(110)와 통신하며 무인 비행체(110)를 제어할 수 있다.The mobile terminal 100 is a computing device, and may be a terminal used by a user such as a smart phone, a tablet, an Internet of Things device, or a wearable computer. The mobile terminal 100 communicates with the unmanned aerial vehicle 110 and may control the unmanned aerial vehicle 110.

모바일 단말(100)은 통신부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The mobile terminal 100 may include a communication unit 210, a processor 220, and a display unit 230.

통신부(210)는 무인 비행체(110)에 의해 촬영된 이미지들 및/또는 획득된 (고정밀의) 위치 정보를 획득하기 위해 무인 비행체(110)(모바일 단말(200))와 통신하는 구성이거나, 이미지의 획득을 위해 무인 비행체(110)의 저장부와 접속하는 구성일 수 있다. 예컨대, 통신부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지/위치 정보를 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지를 획득할 수 있다. The communication unit 210 is a configuration that communicates with the unmanned aerial vehicle 110 (mobile terminal 200) to acquire images photographed by the unmanned aerial vehicle 110 and/or acquired (high-precision) location information, or It may be a configuration that connects with the storage unit of the unmanned aerial vehicle 110 for obtaining of. For example, the communication unit 210 may acquire image/location information from the unmanned aerial vehicle 110 through wire or wireless, or acquire an image through an external memory device of the unmanned aerial vehicle 110.

또한, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.In addition, the communication unit 210 may be a configuration for the mobile terminal 100 to communicate with other devices such as the unmanned aerial vehicle 110 and the server 120. That is to say, the communication unit 210 is a configuration for the mobile terminal 100 to transmit/receive data and/or information wirelessly or wiredly to other devices such as the unmanned aerial vehicle 110 and the server 120, and It may be a hardware module such as a network interface card of 100, a network interface chip, and a networking interface port, or a software module such as a network device driver or a networking program.

프로세서(220)는 모바일 단말(100)의 구성 요소들을 관리할 수 있고, 모바일 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 획득된 위치 정보를 수집하고, 수집된 위치 정보를 처리하여 대상지(150)와 연관된 제1 메시를 생성하기 위해 필요한 연산을 수행할 수 있다. 또한, 실시예에 따라, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수도 있다. The processor 220 may manage components of the mobile terminal 100 and may be a component for executing a program or application used by the mobile terminal 100. For example, the processor 220 may collect the location information acquired by the unmanned aerial vehicle 110 and process the collected location information to perform an operation required to generate a first mesh associated with the target site 150. In addition, according to the embodiment, the processor 220 may acquire an image captured by the unmanned aerial vehicle 110, and by matching (ie, positioning) the first mesh and such an image, Position information may be corrected, and a matched image may be generated in which the position information is corrected.

프로세서(220)는 모바일 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서(220)에 의한 동작에 의해 도 3 내지 도 8을 참조하여 후술될 무인 비행체를 제어하는 방법 및 정합 이미지 생성 방법이 수행될 수 있다. 프로세서(220)는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The processor 220 may be at least one processor of the mobile terminal 100 or at least one core within the processor. By the operation of the processor 220, a method of controlling an unmanned aerial vehicle to be described later with reference to FIGS. 3 to 8 and a method of generating a matched image may be performed. The processor 220 may be implemented to execute instructions readable in a computer, and perform the above methods through execution of such instructions.

표시부(230)는 모바일 단말(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들 및 결과적으로 생성된 정합 이미지를 출력하기 위한 디스플레이 장치일 수 있다. 표시부(230)는 터치 스크린을 포함할 수 있다.The display unit 230 may be a display device for outputting data input by the user of the mobile terminal 100 or for outputting images captured by the unmanned aerial vehicle 110 and a resultant matched image. The display unit 230 may include a touch screen.

한편, 전술된 제2 모바일 단말(200)은 제1 모바일 단말(100)과 유사한 구성을 포함하도록 구성될 수 있는 바, 중복되는 설명은 생략한다. Meanwhile, since the above-described second mobile terminal 200 may be configured to include a configuration similar to that of the first mobile terminal 100, a redundant description will be omitted.

서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들을 획득하여 이미지들을 처리하기 위한 장치일 수 있다. 서버(120)는 획득된 이미지들을 정합함으로써 정합 이미지를 생성할 수 있다.The server 120 may be a device for processing images by obtaining images directly from the mobile terminal 100 or from the unmanned aerial vehicle 110. The server 120 may generate a matching image by matching the acquired images.

서버(120)는 무인 비행체(110)와는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 서버(120)는 이미지들에 대한 정합 프로세스를 수행하기 위한 고성능의 PC 또는 컴퓨팅 장치를 포함할 수 있다. The server 120 may be a server or other computing device that exists remotely from the unmanned aerial vehicle 110. The server 120 may include a high-performance PC or computing device for performing a matching process on images.

서버(120)는 통신부 및 프로세서를 포함할 수 있다. 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(100) 및 무인 비행체(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. 예컨대, 또한, 서버(120)의 프로세서는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 모바일 단말(100)에 의해 생성된 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수 있다.The server 120 may include a communication unit and a processor. For the communication unit and the processor of the server 120, since technical descriptions of the communication unit and the processor of the mobile terminal 100 and the unmanned aerial vehicle 110 may be similarly applied, a redundant description will be omitted. For example, in addition, the processor of the server 120 may acquire an image photographed by the unmanned aerial vehicle 110, and match this image with the first mesh generated by the mobile terminal 100 (ie, position registration) Through doing so, it is possible to correct the location information included in the image, and generate a matched image in which the location information is corrected.

무인 비행체(110)를 제어하는 구체적인 방법과, 대상지(150)에 대한 정합 이미지의 생성 방법의 상세한 내용은 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명한다. A detailed method of controlling the unmanned aerial vehicle 110 and a method of generating a matching image for the target site 150 will be described in more detail with reference to FIGS. 2 to 8 to be described later.

후술될 상세한 설명에서, 모바일 단말(100) 또는 프로세서(220)의 구성들에 의해 수행되는 동작이나 모바일 단말(100) 또는 프로세서(220)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(100)에 의해 수행되는 동작으로 설명될 수 있다. 서버(120) 및 무인 비행체(110)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the components of the mobile terminal 100 or the processor 220 or the operation performed by the application/program executed by the mobile terminal 100 or the processor 220 is for convenience of description. It may be described as an operation performed by the mobile terminal 100. The same applies to the server 120 and the unmanned aerial vehicle 110.

도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of controlling an unmanned aerial vehicle to obtain an image and location information of a target site according to an exemplary embodiment.

도 3을 참조하여, 제1 모바일 단말(100)에 의해 수행되는, 카메라(260), 제2 모바일 단말(200) 및 측량 안테나(250)를 포함하는 무인 비행체(110)를 제어하는 방법에 대해 상세하게 설명한다. Referring to FIG. 3, a method of controlling the unmanned aerial vehicle 110 including the camera 260, the second mobile terminal 200 and the survey antenna 250 performed by the first mobile terminal 100 It will be described in detail.

무인 비행체(110)는, 제1 모바일 단말(100)에 의한 제어에 의해, 대상지(150) 상의 기 설정된 경로(115)를 비행하도록 제어될 수 있다. The unmanned aerial vehicle 110 may be controlled to fly a preset path 115 on the target site 150 by control by the first mobile terminal 100.

단계(310)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 카메라(260)가 경로(115) 상의 복수의 제1 지점들의 각각에서 대상지(150)를 촬영하여 대상지(150)의 이미지를 획득하도록 무인 비행체(110)를 제어할 수 있다. 제1 지점들의 각각(또는 적어도 일부)은 경로(110) 상의 웨이 포인트일 수 있다. 제1 지점들의 각각은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. In step 310, the first mobile terminal 100, while the unmanned aerial vehicle 110 is flying the path 115, the camera 260 is a target at each of the plurality of first points on the path 115 ( It is possible to control the unmanned aerial vehicle 110 to acquire an image of the target site 150 by photographing 150). Each (or at least some) of the first points may be a waypoint on the route 110. Each of the first points may be arranged at a predetermined interval on the path 115. This predetermined interval may be set (before the flight of the unmanned aerial vehicle 110) by the mobile terminal 100.

비행체(110)는 이러한 제1 지점들의 각각을 통과할 때, 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 단계(310)에 따라, 무인 비행체(110)는 대상지(150)를 촬영하는 복수의 이미지들을 획득할 수 있다. 각 이미지는 대상지(150)의 일부를 촬영하는 것일 수 있고, 무인 비행체(110)는 소정의 중복률을 갖도록 대상지(150)를 촬영할 수 있다. 중복률은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 중복률을 갖도록 대상지(150)를 촬영한 복수의 이미지들은 대상지(150)에 대한 하나의 정합 이미지를 생성하기 위해 사용될 수 있다. When the vehicle 110 passes through each of these first points, it is possible to acquire an image of the target site 150 by photographing the target site 150. In accordance with step 310, the unmanned aerial vehicle 110 may acquire a plurality of images photographing the target site 150. Each image may be a photograph of a part of the target site 150, and the unmanned aerial vehicle 110 may take the target site 150 to have a predetermined redundancy rate. The redundancy rate may be set by the mobile terminal 100 (before the flight of the unmanned aerial vehicle 110). A plurality of images photographed on the target site 150 to have a predetermined redundancy rate may be used to generate one matched image for the target site 150.

대상지(150)의 이미지는 해당 이미지가 촬영된 위치에 대한 위치 정보를 포함할 수 있다. 이러한 위치 정보는, 예컨대, 무인 비행체(110)가 포함하는 GPS 모듈에 기반하여 획득되는 것으로서, 미터 단위의 오차를 갖는 것일 수 있다. The image of the target site 150 may include location information on the location at which the corresponding image was photographed. Such location information is obtained, for example, based on a GPS module included in the unmanned aerial vehicle 110, and may have an error in units of meters.

단계(320)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들의 각각에서 대상지(150)의 위치 정보를 획득하도록 무인 비행체를 제어할 수 있다. 제2 지점들의 각각(또는 적어도 일부)은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. In step 320, the first mobile terminal 100, while the unmanned aerial vehicle 110 is flying the path 115, the second mobile terminal 200 using the survey antenna 250 is the path 115 It is possible to control the unmanned aerial vehicle to obtain location information of the target site 150 at each of the plurality of second points on the image. Each (or at least some) of the second points may be disposed on the path 115 at predetermined intervals. This predetermined interval may be set (before the flight of the unmanned aerial vehicle 110) by the mobile terminal 100.

또는, 제2 지점들의 각각(또는 적어도 일부)은 기 설정된 지점이 아니며, 무인 비행체(110)가 경로(115)를 비행하는 동안 소정의 시간 간격으로 측량 안테나(250)를 이용하여 대상지(150)의 위치 정보를 획득하는 경로(115) 상의 지점일 수 있다. 말하자면, 제1 모바일 단말(100)은 경로(115) 상에서 소정의 시간 간격으로, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 대상지(150)의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있고, 상기 제2 지점들은 이러한 소정의 시간 간격으로 대상지(150)의 위치 정보가 획득되는 경로(115) 상의 지점을 포함할 수 있다. 즉, 경로(115)를 비행하는 무인 비행체(110)는 소정의 시간 간격으로 대상지(150)의 위치 정보를 획득할 수 있다. 이러한 소정의 시간 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초로 설정될 수 있다.Alternatively, each (or at least some) of the second points is not a preset point, and while the unmanned aerial vehicle 110 is flying the path 115, the target site 150 is used at a predetermined time interval using the surveying antenna 250 It may be a point on the path 115 to obtain the location information of. That is to say, the first mobile terminal 100 uses the survey antenna 250 at predetermined time intervals on the route 115 so that the second mobile terminal 200 acquires the location information of the target site 150. 110) may be controlled, and the second points may include points on the path 115 at which location information of the target site 150 is obtained at such predetermined time intervals. That is, the unmanned aerial vehicle 110 flying the path 115 may acquire the location information of the target site 150 at predetermined time intervals. This predetermined time interval may be set by the mobile terminal 100 (before the flight of the unmanned aerial vehicle 110). The predetermined time interval may be set to, for example, 1 second.

측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는, 예컨대, DGPS 안테나를 사용하여 획득된 것으로서, 단계(310)에서 획득된 이미지가 포함하는 위치 정보에 비해 더 정밀한 것일 수 있다. 일례로, 측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는 센티미터 단위의 오차만을 포함하는 것일 수 있다. The location information of the target site 150 obtained using the survey antenna 250 is, for example, obtained using a DGPS antenna, and may be more precise than the location information included in the image obtained in step 310. . For example, the location information of the target site 150 obtained using the survey antenna 250 may include only an error in units of centimeters.

위치 정보가 획득되는 경로(115) 상의 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함할 수 있다. 다른 실시예로서 이러한 캘리브레이션 포인트는 하나일 수도 있다. 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는, 후술될 단계(340)의 제1 메시를 생성함에 있어서, 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 대한 기준이 될 수 있다. 말하자면, 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 비해 더 정확한 위치 정보인 것으로 가정될 수 있다. The second points on the path 115 from which the location information is obtained may include at least two calibration points. As another embodiment, there may be one such calibration point. The location information of the target site 150 obtained from the calibration point may be a reference for the location information of the target site 150 obtained at other second points in generating the first mesh in step 340 to be described later. have. In other words, it may be assumed that the location information of the target place 150 acquired at the calibration point is more accurate location information than the location information of the target place 150 acquired at other second points.

캘리브레이션 포인트에서 이러한 더 정확한 위치 정보를 얻기 위해 다음의 단계들(322 및 324)이 수행될 수 있다.The following steps 322 and 324 may be performed to obtain this more accurate location information at the calibration point.

단계(322)에서, 제1 모바일 단말(100)은, 캘리브레이션 포인트들의 각각에서 소정의 시간(일정 시간) 동안 무인 비행체(110)가 정지(체공)하도록 무인 비행체(110)를 제어할 수 있다. 이러한 소정의 시간은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초 또는 2초로 설정될 수 있다. In step 322, the first mobile terminal 100 may control the unmanned aerial vehicle 110 so that the unmanned aerial vehicle 110 stops (flying) for a predetermined time (a predetermined time) at each of the calibration points. This predetermined time may be set by the mobile terminal 100 (before the flight of the unmanned aerial vehicle 110). The predetermined time interval may be set to, for example, 1 second or 2 seconds.

단계(324)에서, 제1 모바일 단말(100)은, (무인 비행체(110)가 정지한 상태에서) 캘리브레이션 포인트에서의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있다. 무인 비행체(110)가 정지한 상태에서 위치 정보가 획득됨으로써, 무인 비행체(110)의 이동에 따른 오차가 발생하지 않게 되는 바, 보다 정확한 위치 정보가 획득될 수 있다. In step 324, the first mobile terminal 100 may control the unmanned aerial vehicle 110 to obtain location information at the calibration point (while the unmanned aerial vehicle 110 is stopped). Since the location information is acquired while the unmanned aerial vehicle 110 is stopped, an error according to the movement of the unmanned aerial vehicle 110 does not occur, and more accurate location information can be obtained.

캘리브레이션 포인트들의 각각은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 예컨대, 캘리브레이션 포인트들은 제2 지점들 중 경로 상에서 경로(115)의 꼭지점에 대응하는 지점을 포함할 수 있다. 경로(115)의 꼭지점은 경로(115)를 비행하는 무인 비행체(110)가 턴(즉, 방향을 바꾸는) 위치일 수 있다. 또는, 경로(115)의 꼭지점은 대상지(150)의 꼭지점에 대응하는 경로(115) 상의 위치일 수 있다. Each of the calibration points can be set by the mobile terminal 100 (before the flight of the unmanned aerial vehicle 110). For example, the calibration points may include a point corresponding to a vertex of the route 115 on the route among the second points. The vertex of the path 115 may be a position in which the unmanned aerial vehicle 110 flying in the path 115 turns (ie, changes direction). Alternatively, the vertex of the path 115 may be a position on the path 115 corresponding to the vertex of the target area 150.

관련하여, 도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다. In connection with this, FIG. 5 shows a method of obtaining an image and location information of a target site by an unmanned aerial vehicle according to an exemplary embodiment.

도 5의 우측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제1 지점들(520)의 각각에서 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 제1 지점들(520)의 각각은 경로(115) 상의 소정의 간격의 지점일 수 있다. As shown on the right side of FIG. 5, the unmanned aerial vehicle 110 may acquire an image of the target site 150 by photographing the target site 150 at each of the first points 520 while flying the path 115. . Each of the first points 520 may be points of a predetermined interval on the path 115.

한편, 도 5의 좌측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제2 지점들(510)의 각각에서, 측량 안테나(250)를 이용하여, 대상지(150)의 위치 정보를 획득할 수 있다. 도시된 예시에서, 경로(115)의 꼭지점들에는 캘리브레이션 포인트들(514)이 위치되고, 캘리브레이션 포인트들(514)의 사이에 캘리브레이션 포인트들(514)이 아닌 제2 지점들(512)이 위치될 수 있다. Meanwhile, as shown on the left side of FIG. 5, the unmanned aerial vehicle 110 uses the surveying antenna 250 at each of the second points 510 while flying the path 115, and the location of the target site 150 Information can be obtained. In the illustrated example, calibration points 514 are located at vertices of the path 115, and second points 512 are located between the calibration points 514, not the calibration points 514. I can.

전술한 것처럼, 캘리브레이션 포인트들(514)은 경로(115) 상의 (예컨대, 모바일 단말(100)에 의해) 기 설정된 지점일 수 있다. 이 때, 제2 지점들(510) 중 캘리브레이션 포인트들(514)을 제외한 제2 지점들(512)은, (예컨대, 1초와 같은) 소정의 시간 간격으로, 대상지(150)의 위치 정보가 획득되는 경로(115) 상에서의 캘리브레이션 포인트들(514) 사이에 위치하는 지점들일 수 있다. 이러한 제2 지점들(512)은 기 설정된 지점이 아니며, 기 설정된 시간 간격에 따른 무인 비행체(110)의 비행에 의해 결정되는 지점들일 수 있다. 시간 간격이 작게 설정될수록 더 많은 위치 정보가 획득될 수 있는 바, 대상지(150)를 보다 정확하게 반영하는 (후술될) 제1 메시가 생성될 수 있다. 이로 인해서는, 결과적으로 생성되는 정합 이미지의 정확도가 높아지게 될 수 있다. As described above, the calibration points 514 may be preset points on the path 115 (eg, by the mobile terminal 100 ). At this time, the second points 512 of the second points 510 excluding the calibration points 514 are, at a predetermined time interval (eg, 1 second), the location information of the target site 150 These may be points located between the calibration points 514 on the acquired path 115. These second points 512 are not preset points, and may be points determined by flight of the unmanned aerial vehicle 110 according to a preset time interval. As the time interval is set to be smaller, more location information may be obtained, and thus a first mesh (to be described later) that more accurately reflects the target site 150 may be generated. Due to this, the accuracy of the resulting matched image may increase.

즉, 경로(115)를 비행하는 무인 비행체(110)는 기 설정된 캘리브레이션 포인트들(514)의 각각에서 소정의 시간 동안 정지하여 대상지(150)의 위치 정보를 획득할 수 있고, 캘리브레이션 포인트들(514)의 사이를 이동하는 동안 소정의 시간 간격으로 (지점들(512)의 각각에서) 대상지(150)의 위치 정보를 획득할 수 있다.That is, the unmanned aerial vehicle 110 flying on the path 115 may stop for a predetermined time at each of the preset calibration points 514 to obtain the location information of the target site 150, and the calibration points 514 While moving between ), the location information of the target site 150 (at each of the points 512) may be obtained at predetermined time intervals.

단계(310)에서의 이미지의 획득 및 단계(320)에서의 위치 정보의 획득은 서로 독립적으로 이루어질 수 있다. 무인 비행체(110)의 비행에 따라, 제1 지점 및 제2 지점은 겹쳐질 수 있을 것이나, 제1 지점 및 제2 지점은 경로(115) 상에서 서로 독립적인 지점일 수 있다. 실시예에 따라서는, 제1 지점 및 제2 지점이 동일하게 설정될 수도 있다. The acquisition of the image in step 310 and the acquisition of location information in step 320 may be performed independently of each other. Depending on the flight of the unmanned aerial vehicle 110, the first point and the second point may overlap, but the first point and the second point may be independent points on the path 115. Depending on the embodiment, the first point and the second point may be set identically.

단계(310) 및 단계(320)은 순차적으로 수행되는 것이 아니라 병렬적으로 수행되는 것일 수 있다. 말하자면, 무인 비행체(110)는 경로(115)를 한 번 비행하는 것을 통해 이미지 및 위치 정보를 모두 획득할 수 있다.Steps 310 and 320 may be performed in parallel rather than sequentially. That is to say, the unmanned aerial vehicle 110 may acquire both image and location information through one flight of the path 115.

단계(330)에서, 제1 모바일 단말(100)은, 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수집할 수 있다. 말하자면, 제1 모바일 단말(100)은 제2 모바일 단말(200)과 통신함으로써 측량 안테나(250)를 이용하여 획득된 대상지(150)에 대한 (고정밀의) 위치 정보를 수집할 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 또는, 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 소정의 시간 간격으로 이루어질 수 있다. In step 330, the first mobile terminal 100 may collect location information of the target site 150 from the second mobile terminal 200. In other words, the first mobile terminal 100 may collect (high-precision) location information for the target site 150 obtained using the survey antenna 250 by communicating with the second mobile terminal 200. The transmission of the location information to the first mobile terminal 100 may be performed in real time (or almost in real time) simultaneously (or almost simultaneously) with the acquisition of the location information in the unmanned aerial vehicle 110. Alternatively, transmission of the location information to the first mobile terminal 100 may be performed at predetermined time intervals.

단계(340)에서, 제1 모바일 단말(100)은, 단계(330)에서 수집된 위치 정보에 기반하여 대상지(150)와 연관된 제1 메시를 생성할 수 있다. 제1 메시는 대상지(150)를 수집된 위치 정보에 기반하여 복수의 영역으로 분할한 것일 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)를 수집된 위치 정보를 기준으로 복수의 영역으로 분할함으로써 제1 메시를 생성할 수 있다. In step 340, the first mobile terminal 100 may generate a first mesh associated with the target site 150 based on the location information collected in step 330. The first mesh may be obtained by dividing the target area 150 into a plurality of areas based on the collected location information. For example, the first mobile terminal 100 may generate the first mesh by dividing the target area 150 into a plurality of areas based on the collected location information.

제1 메시를 생성하는 방법에 대해서는 다음의 단계들(342 및 344)을 참조하여 더 자세하게 설명된다. The method of generating the first mesh is described in more detail with reference to the following steps 342 and 344.

단계(342)에서, 제1 모바일 단말(100)은 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 제2 지점들(510)의 각각에서 획득된 대상지(150)의 위치 정보를 구면 좌표계의 좌표로 변환할 수 있다. 구면 좌표계의 좌표는 예컨대, 경위도 좌표를 포함할 수 있다. 즉, 단계(320)에서 획득된 위치 정보가 포함하는 평면 좌표는 구면 좌표계의 좌표로 변환될 수 있다. 이 때, 캘리브레이션 포인트들(514)에서 획득된 위치 정보가 포함하는 좌표는 정확한 것으로 가정될 수 있으므로 이를 기준으로 좌표의 변환이 수행될 수 있다. 또한, 캘리브레이션 포인트들(514)에서 획득된 위치 정보(좌표들)를 기준으로 다른 제2 지점들(512)에서 획득된 위치 정보(좌표들)은 보정될 수 있다. In step 342, the first mobile terminal 100 calculates the location information of the target site 150 obtained at each of the second points 510 based on the calibration points of the calibration points 514 in a spherical coordinate system. Can be converted to coordinates of The coordinates of the spherical coordinate system may include, for example, longitude and latitude coordinates. That is, the plane coordinates included in the location information obtained in step 320 may be converted to the coordinates of the spherical coordinate system. At this time, since the coordinates included in the location information obtained from the calibration points 514 may be assumed to be accurate, the coordinates may be converted based on this. In addition, location information (coordinates) obtained at other second points 512 may be corrected based on location information (coordinates) obtained at the calibration points 514.

단계(344)에서, 제1 모바일 단말(100)은 이러한 변환된 좌표에 기반하여 대상지(150)를 복수의 영역들로 분할한 제1 메시를 생성할 수 있다. In step 344, the first mobile terminal 100 may generate a first mesh obtained by dividing the target area 150 into a plurality of regions based on the transformed coordinates.

제1 메시는 예컨대, 도 6에서 도시된 것과 같이 생성될 수 있다. 도 6에서 도시된 것처럼, 제1 메시(600)는 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제1 메시(600)는 대상지(150)를 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들을 기준으로 분할함으로써 생성될 수 있다. The first mesh can be created, for example, as shown in FIG. 6. As shown in FIG. 6, the first mesh 600 may be generated by dividing the object site 150 into square or rectangular (or polygonal shapes other than those shown) regions. The first mesh 600 may be generated by dividing the target site 150 based on the location information (coordinates) obtained in step 320 or the coordinates transformed in step 322.

일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들에 기반하여 보간된(interpolation) 좌표)가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 상기 보간된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표)를 포함할 수 있다. 말하자면, 제1 메시(600)는 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들 및/또는 이들이 보간된 좌표들을 포함할 수 있다. As an example, at least one of the vertices of the divided regions includes location information (coordinates) obtained in step 320 or coordinates converted in step 322 (or location information (coordinates) obtained in step 320). Alternatively, interpolation coordinates) may be allocated based on the coordinates transformed in step 322. Further, the coordinates included in the divided area may include the interpolated coordinates (or location information (coordinates) obtained in step 320 or coordinates transformed in step 322). In other words, the first mesh 600 may include the location information (coordinates) obtained in step 320 or the coordinates transformed in step 322 and/or the coordinates from which they are interpolated.

이와 같이 생성된 제1 메시(600)는 단계(310)에서 획득된 대상지(150)의 이미지와 정합되어, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다. "정합"은 제1 메시(600)가 포함하는 위치 정보를 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보에 매칭시키는 것으로서, 제1 메시(600)가 포함하는 위치 정보를 기준으로 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보를 보정하거나, 이를 대체하는 것일 수 있다. 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지가 생성될 수 있다. The first mesh 600 generated as described above may be matched with the image of the target site 150 obtained in step 310, and may be used to correct position information included in the image of the target site 150. "Matching" is to match the location information included in the first mesh 600 with (corresponding) location information included in the image of the target site 150, based on the location information included in the first mesh 600 The (corresponding) location information included in the image of the target site 150 may be corrected or replaced. A matching image for the target site 150 may be generated based on the image for which such location information is corrected.

제1 메시(600)를 사용하여 대상지(150)에 대한 정합 이미지를 생성하는 방법에 대해서는 후술될 도 4 및 도 6을 참조하여 더 자세하게 설명된다.A method of generating a registration image for the target area 150 using the first mesh 600 will be described in more detail with reference to FIGS. 4 and 6 to be described later.

한편, 제2 모바일 단말(200)은, 측량 안테나(250)에 의해 측정된 제2 지점들(510)의 각각에서의 대상지(150)의 위치 정보를 획득하여, 제1 모바일 단말(100)로 전달하는 것이라는 점에서, 제1 모바일 단말(100)에 대한 클라이언트로서 동작될 수 있다. On the other hand, the second mobile terminal 200 obtains the location information of the target site 150 at each of the second points 510 measured by the survey antenna 250, and transfers to the first mobile terminal 100. In terms of delivering, it can be operated as a client for the first mobile terminal 100.

또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 획득하여, 제1 메시(600)를 생성하기 위해 대상지(150)의 위치 정보를 처리하는 것이라는 점에서, 제2 모바일 단말(200)에 대한 서버로서 동작될 수 있다.In addition, the first mobile terminal 100 obtains the location information of the target place 150 from the second mobile terminal 200, and processes the location information of the target place 150 to generate the first mesh 600. In this regard, it may operate as a server for the second mobile terminal 200.

실시예에서, 제1 모바일 단말(100) 및 제2 모바일 단말(200)은 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하기 위한 동일한 프로그램/어플리케이션을 실행할 수 있다. 이 때, 상기 프로그램/어플리케이션을 통한 제어에 따라, 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하는 제1 모바일 단말(100)은 "서버 모드"로 설정될 수 있고, 측량 안테나(250)와 통신하고 위치 정보를 획득하도록 무인 비행체(110)에 탑재되는 단말은 "클라이언트 모드"로 설정될 수 있다. In an embodiment, the first mobile terminal 100 and the second mobile terminal 200 may control the unmanned aerial vehicle 110 and execute the same program/application for processing the acquired location information. At this time, according to the control through the program/application, the first mobile terminal 100 that controls the unmanned aerial vehicle 110 and processes the acquired location information may be set to a "server mode", and a survey antenna ( 250) and the terminal mounted on the unmanned aerial vehicle 110 to obtain location information may be set to "client mode".

이상, 도 1 및 2를 참조하여 전술된 기술적 특징은 도 3 및 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 may be applied to FIGS. 3 and 5 as they are, and thus redundant descriptions are omitted.

도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다. 4 is a flowchart illustrating a method of generating a matching image for a target place by processing an image and location information acquired for a target place, according to an exemplary embodiment.

후술될 단계들(410 내지 440)은 모바일 단말(100) 또는 (외부의) 서버(120)에 의해 수행될 수 있다. 대상지(150)에 대한 정합 이미지를 생성하기 위한 단계들(410 내지 440)은, 단계(310) 및 단계(320)에서 획득된 이미지 및 위치 정보에 대한 후처리 작업일 수 있다. Steps 410 to 440 to be described later may be performed by the mobile terminal 100 or the (external) server 120. Steps 410 to 440 for generating a matched image for the target site 150 may be a post-processing operation on the image and location information obtained in steps 310 and 320.

서버(120)에 비해 상대적으로 저성능인 모바일 단말(100)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 일부(또는, 단계(320)에서 획득된 위치 정보의 일부)에 대해서만 정합이 수행될 수 있다. 다만, 고성능의 PC 또는 컴퓨팅 장치를 포함하는 서버(120)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 전부(또는, 단계(320)에서 획득된 위치 정보의 전부)에 대해 정합이 수행될 수 있다.When the steps 410 to 440 to be described later are performed by the mobile terminal 100, which is relatively inferior to the server 120, part of the location information included in the image of the captured target site 150 (or , Matching may be performed only on a part of the location information obtained in step 320). However, when the steps 410 to 440 to be described later are performed by the server 120 including a high-performance PC or computing device, all of the location information included in the image of the captured target site 150 (or, Matching may be performed on all of the location information obtained in step 320).

관련하여, 도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다. 6 is a method for generating a matched image by matching a first mesh based on the location information of the target site acquired by a survey antenna and a second mesh based on the image of the target site acquired by the camera according to an example Represents.

단계(410)에서, 모바일 단말(100) 또는 서버(120)는 카메라(260)에 의해 촬영된 대상지(150)의 이미지를 획득할 수 있다. 예컨대, 서버(120)는 무인 비행체(110)로부터 직접 또는 모바일 단말(100)을 통해 이러한 이미지(들)를 획득할 수 있다. In step 410, the mobile terminal 100 or the server 120 may acquire an image of the target site 150 photographed by the camera 260. For example, the server 120 may obtain such image(s) directly from the unmanned aerial vehicle 110 or through the mobile terminal 100.

단계(420)에서, 모바일 단말(100) 또는 서버(120)는 획득된 대상지(150)의 이미지(들)에 기반하여 제2 메시(610)를 생성할 수 있다. In step 420, the mobile terminal 100 or the server 120 may generate the second mesh 610 based on the acquired image(s) of the target place 150.

제2 메시(610)는 예컨대, 도 6에서 도시된 것처럼, 대상지(150)의 이미지(들)에 기반하여, 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제2 메시(610)는 대상지(150)의 이미지에 포함된 위치 정보(좌표들)를 기준으로, 대상지(150)를 분할함으로써 생성될 수 있다. The second mesh 610 is, for example, as shown in FIG. 6, based on the image(s) of the target site 150, the area of the target site 150 as a square or a rectangle (or a polygon of a shape other than that shown). It can be created by dividing by The second mesh 610 may be generated by dividing the target area 150 based on location information (coordinates) included in the image of the target area 150.

일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 이미지에 포함된 위치 정보(예컨대, 이미지의 중점 좌표)에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 이미지에 포함된 위치 정보에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표를 포함할 수 있다. 말하자면, 제2 메시(610)는 이미지에 포함된 위치 정보에 대응하는 좌표 및/또는 그것이 보간된 좌표(들)을 포함할 수 있다.For example, at least one of the vertices of the divided areas may be assigned coordinates corresponding to location information (eg, midpoint coordinates of the image) included in the image or coordinates obtained by interpolating location information included in the image. Also, the coordinates included in the divided area may include coordinates corresponding to location information included in the image or coordinates obtained by interpolating location information included in the image. That is to say, the second mesh 610 may include coordinates corresponding to position information included in the image and/or coordinate(s) from which it is interpolated.

제2 메시(610)는 위치 정보를 포함하는 것일 뿐이고, 대상지(150)의 이미지의 이미지 정보는 포함하지 않는 것일 수 있다. The second mesh 610 only includes location information, and may not include image information of an image of the target site 150.

이와 같이 생성된 제2 메시(610)는 전술된 제1 메시(600)와 정합됨으로써, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다. The second mesh 610 generated as described above is matched with the first mesh 600 described above, and thus may be used to correct positional information included in the image of the target site 150.

단계(430)에서, 모바일 단말(100) 또는 서버(120)는 제1 메시(600)에 포함된 대상지(150)에 대한 제1 위치 정보를 기준으로, 제2 메시(610)에 포함된 대상지에 대한 제2 위치 정보를 보정할 수 있다. 말하자면, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보에 대응하는 제2 메시(610)의 위치 정보로서의 상기 제2 위치 정보를 상기 제1 위치 정보를 기준으로 보정할 수 있다. 예컨대, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보로 상기 제2 위치 정보를 대체할 수 있다.In step 430, the mobile terminal 100 or the server 120 is based on the first location information on the target area 150 included in the first mesh 600, the target area included in the second mesh 610 The second location information for may be corrected. In other words, the mobile terminal 100 or the server 120 may correct the second location information as the location information of the second mesh 610 corresponding to the first location information based on the first location information. For example, the mobile terminal 100 or the server 120 may replace the second location information with the first location information.

예컨대, 상기 제1 위치 정보는 전술된 것처럼, 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 제2 지점들(510)의 각각에서의 대상지(150)의 좌표를 포함할 수 있고, 상기 제2 위치 정보는 대상지(150)의 이미지의 중점 좌표를 포함할 수 있다. 이 때, 모바일 단말(100) 또는 서버(120)는 상기 중점 좌표를 해당 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체함으로써, 상기 제2 위치 정보를 보정할 수 있다. For example, as described above, the first location information is the coordinates of the target site 150 at each of the second points 510 converted into coordinates of a spherical coordinate system based on each calibration point of the calibration points 514 May include, and the second location information may include the central coordinates of the image of the target site 150. In this case, the mobile terminal 100 or the server 120 may correct the second location information by replacing the focus coordinates with the coordinates included in the first location information corresponding to the corresponding focus coordinates.

이에 따라, 도 6의 제2 메시(610)와 같이 왜곡이 존재하는 메시가 제1 메시(600)와 같이 보정될 수 있다. Accordingly, a mesh in which distortion exists as in the second mesh 610 of FIG. 6 may be corrected as in the first mesh 600.

단계(440)에서, 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정의 결과와 대상지(150)의 이미지에 기반하여, 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다. 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정에 따라 위치 정보가 보정된 제2 메시에 포함된 위치 정보로, 카메라(260)에 의해 촬영된 대상지(150)의 이미지의 (위치 정보를 나타내는) 메타데이터를 수정할 수 있다. 모바일 단말(100) 또는 서버(120)는 이러한 메타데이터가 수정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다.In step 440, the mobile terminal 100 or the server 120 generates a matched image 630 for the target site 150 based on the result of the correction in step 430 and the image of the target site 150 can do. The mobile terminal 100 or the server 120 is the location information included in the second mesh whose location information is corrected according to the correction in step 430, and the image of the target site 150 photographed by the camera 260 is Metadata (indicating location information) can be modified. The mobile terminal 100 or the server 120 may generate a matching image 630 for the target site 150 based on the image modified with this metadata.

한편, 전술된 것처럼, 측량 안테나(250)는, 위치 정보로서, 무인 비행체(110)의 높이 정보를 더 획득할 수 있다. 말하자면, (단계(320)에서의) 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들(510)의 각각에서 획득하는 대상지(150)의 위치 정보는 제2 지점들(510)의 각각에서의 평면 좌표 및 높이 좌표를 포함할 수 있다. 상기 높이 좌표는 상기 평면 좌표를 보정하기 위해 사용될 수 있다. 한편, 센서부(270)가 별도의 높이 센서를 포함하는 경우에는, 이러한 높이 센서에 의해 측정된 높이 정보가 상기 평면 좌표를 보정하기 위해 사용될 수 있다. Meanwhile, as described above, the survey antenna 250 may further obtain height information of the unmanned aerial vehicle 110 as location information. That is to say, by using the surveying antenna 250 (in step 320), the second mobile terminal 200 obtains at each of the plurality of second points 510 on the path 115. The location information may include plane coordinates and height coordinates at each of the second points 510. The height coordinates may be used to correct the plane coordinates. Meanwhile, when the sensor unit 270 includes a separate height sensor, height information measured by the height sensor may be used to correct the plane coordinates.

따라서, 제1 메시(600)에 포함된 대상지(150)에 대한 위치 정보인 상기 제1 위치 정보는, 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 제2 지점들(510)의 각각에서의 평면 좌표를 포함할 수 있다. 말하자면, 제1 메시(600)에 포함된 좌표는 해당 좌표와 연관하여 측정된 높이 값에 기반하여 보정된 것일 수 있다. Accordingly, the first position information, which is position information about the target site 150 included in the first mesh 600, is each of the second points 510 obtained by correcting the plane coordinates based on the height coordinates. It may contain the coordinates of the plane at. In other words, the coordinates included in the first mesh 600 may be corrected based on a height value measured in association with the corresponding coordinates.

예컨대, 모바일 단말(100)은 측량 안테나(250)가 위치 정보를 획득할 때의 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 해당 위치 정보가 포함하는 평면 좌표를 올바르게 보정할 수 있다.For example, the mobile terminal 100 is the rotation angle information of the unmanned aerial vehicle 110 (or the survey antenna 250 mounted on the unmanned aerial vehicle 110) when the survey antenna 250 acquires location information (eg, By using at least one of yaw angle information, roll angle information, and pitch angle information), the plane coordinates included in the corresponding position information may be corrected correctly.

이에 따라, 실시예에서는 보다 정확한 위치 정보가 포함된 제1 메시(600)가 생성될 수 있다. Accordingly, in an embodiment, the first mesh 600 including more accurate location information may be generated.

높이 정보를 사용하여 평면 위치 정보를 보정하는 방법에 대해서는 후술될 도 7 및 8을 참조하여 더 자세하게 설명된다. A method of correcting plane position information using height information will be described in more detail with reference to FIGS. 7 and 8 to be described later.

이상, 도 1 내지 3 및 도 5를 참조하여 전술된 기술적 특징은 도 4 및 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 3 and 5 may be applied to FIGS. 4 and 6 as they are, a duplicate description will be omitted.

도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다. 7 and 8 are flowcharts illustrating a method of correcting location information included in an image of a target site acquired by a camera, according to an example.

도 7에서 도시된 것처럼, 무인 비행체(110)가 비행 중에 이미지(710)를 촬영하는 경우에는, 이미지의 중점 좌표가 왜곡될 수 있다. 즉, 이러한 이미지(710)의 중점 좌표는, 우측의 이미지(720)의 중점 좌표와 같이 보정되어야 할 필요가 있다. As shown in FIG. 7, when the unmanned aerial vehicle 110 photographs the image 710 during flight, the central coordinates of the image may be distorted. That is, the midpoint coordinates of the image 710 need to be corrected like the midpoint coordinates of the right image 720.

무인 비행체(110)는 카메라(260)를 탑재하기 위한 짐벌(810)을 포함할 수 있다. 짐벌(810)은 비행 시 무인 비행체(110)에 움직임이 발생하더라도, 카메라(260)의 시점(viewpoint)의 방향을 일정하게 유지하도록 하는 장치일 수 있다. 그러나, 저가의 짐벌을 사용하는 경우나, 고가의 짐벌을 사용하는 경우라도, 무인 비행체(110)의 움직임에 따른 왜곡에 대해 이미지의 중점 좌표의 보정을 수행할 필요가 있다. The unmanned aerial vehicle 110 may include a gimbal 810 for mounting the camera 260. The gimbal 810 may be a device that maintains a constant direction of a viewpoint of the camera 260 even if movement occurs in the unmanned aerial vehicle 110 during flight. However, even when a low-cost gimbal is used or an expensive gimbal is used, it is necessary to correct the central coordinates of the image with respect to the distortion caused by the movement of the unmanned aerial vehicle 110.

도 8에서 도시된 것처럼, 카메라(260)는 짐벌(810)에 장착될 수 있다. 이 때, 카메라(1260)를 사용하여 대상지(150)를 촬영할 경우, 획득된 이미지의 중점 좌표는 지점(805)와 같이 인식될 수 있다. As shown in FIG. 8, the camera 260 may be mounted on the gimbal 810. In this case, when the target site 150 is photographed using the camera 1260, the central coordinates of the acquired image may be recognized as the point 805.

이러한 지점(805)에 해당하는 중점 좌표는 지점(810)으로 보정되어야 할 수 있다.The midpoint coordinates corresponding to this point 805 may be corrected to the point 810.

모바일 단말(100) 또는 서버(120)는 이미지가 촬영된 때의 무인 비행체(110)의 높이 정보와, 이미지가 촬영된 때의 짐벌(810)의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 지점(805)의 평면 좌표를 지점(810)의 평면 좌표로 보정할 수 있다. The mobile terminal 100 or the server 120 includes height information of the unmanned aerial vehicle 110 when the image is captured, and rotation angle information of the gimbal 810 when the image is captured (eg, yaw angle information , By using at least one of roll angle information and pitch angle information), the plane coordinates of the point 805 may be corrected to the plane coordinates of the point 810.

무인 비행체(110)의 높이 정보는, 이미지가 촬영된 때에, 측량 안테나(250) 또는 센서부(270)가 포함하는 높이 센서에 의해 획득된 것일 수 있다. The height information of the unmanned aerial vehicle 110 may be obtained by a height sensor included in the survey antenna 250 or the sensor unit 270 when an image is captured.

이와 같이, 높이 정보(높이 값)와, 지점(805)의 평면 좌표와, 짐벌(810)의 회전각 정보를 알면, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점(810)의 평면 좌표(즉, 보정된 중점 좌표)가 계산될 수 있다.In this way, if you know the height information (height value), the plane coordinates of the point 805, and the rotation angle information of the gimbal 810, the plane of the point 810 corresponding to the position vertically below the unmanned aerial vehicle 110 Coordinates (ie, the corrected midpoint coordinates) may be calculated.

상기 짐벌(810)의 회전각 정보는 메타데이터로서 이미지에 포함될 수 있다. The rotation angle information of the gimbal 810 may be included in an image as metadata.

예컨대, 제1 지점들(520)의 각각에서 촬영된 대상지(510)의 이미지는 이미지의 중점 좌표 및 이미지가 촬영된 때의 짐벌(810)의 회전각 정보를 포함할 수 있다. For example, the image of the target site 510 photographed at each of the first points 520 may include the central coordinate of the image and rotation angle information of the gimbal 810 when the image is captured.

상기와 같은, 높이 정보에 따른 평면 위치 정보의 보정이 수행됨으로써, 제2 메시(610)가 포함하는 상기 제2 위치 정보는, 이미지의 중점 좌표를 해당 이미지가 포함하는 짐벌(810)의 회전각 정보와, 무인 비행체(110)의 높이 정보에 기반하여 보정함으로써 획득되는 해당 이미지의 보정된 중점 좌표를 포함할 수 있다. By performing the correction of the plane position information according to the height information as described above, the second position information included in the second mesh 610 is the rotation angle of the gimbal 810 including the image center coordinates. It may include information and the corrected center point coordinates of the corresponding image obtained by correcting based on the height information of the unmanned aerial vehicle 110.

이에 따라, 실시예에서는 보다 정확한 이미지(150)의 위치 정보(즉, 보정된 중점 좌표)가 포함된 제2 메시(610)가 생성될 수 있다. Accordingly, in the embodiment, the second mesh 610 including position information (ie, the corrected center point coordinates) of the image 150 may be more accurate.

마찬가지로, 전술된 것처럼, 측량 안테나(250)에 의해 획득된 위치 정보와 관련하여, (해당 위치 정보가 포함하는) 평면 좌표, (해당 위치 정보가 포함하는) 높이 정보 및 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점의 보정된 평면 좌표가 계산될 수 있다.Likewise, as described above, in relation to the location information obtained by the survey antenna 250, plane coordinates (including the location information), height information (including the location information) and the unmanned aerial vehicle 110 (or , Using rotation angle information (eg, yaw angle information, roll angle information, and at least one of pitch angle information) of the surveying antenna 250 mounted on the unmanned aerial vehicle 110, The corrected plane coordinates of the point corresponding to the vertically lower position of the unmanned aerial vehicle 110 may be calculated.

이에 따라, 실시예에서는 보다 정확한 위치 정보(즉, 보정된 평면 좌표)가 포함된 제1 메시(600)가 생성될 수 있다. Accordingly, in the embodiment, the first mesh 600 including more accurate position information (ie, corrected plane coordinates) may be generated.

이러한 높이 정보를 사용하여 위치 정보가 보정된 제1 메시(600) 및 제2 메시(610)를 사용함으로써, 결과적인 정합 이미지는 보다 정확한 위치 정보를 포함할 수 있게 된다.By using the first mesh 600 and the second mesh 610 whose position information has been corrected using the height information, the resulting registration image may include more accurate position information.

이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7 및 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 6 may be applied to FIGS. 7 and 8 as they are, duplicate descriptions will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

Claims (10)

제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법에 있어서,
상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고,
상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계;
상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계;
상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계; 및
상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계
를 포함하고,
상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고,
상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는,
상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계
를 포함하고,
상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법.
In the method of controlling an unmanned aerial vehicle comprising a camera, a second mobile terminal and a surveying antenna performed by a first mobile terminal,
The unmanned aerial vehicle is controlled to fly a preset path on the target site by control by the first mobile terminal,
While flying the path, controlling the unmanned aerial vehicle so that the camera captures the target location at each of a plurality of first points on the path to obtain an image of the target location;
While flying the route, controlling the unmanned aerial vehicle so that the second mobile terminal acquires location information of the target location at each of a plurality of second points on the route using the survey antenna;
Collecting location information of the target location from the second mobile terminal; And
Generating a first mesh associated with the target location based on the collected location information
Including,
The second points include at least two calibration points,
Controlling the unmanned aerial vehicle to obtain location information of the target location,
Controlling the unmanned aerial vehicle to stop the unmanned aerial vehicle for a predetermined time at each of the calibration points
Including,
The first mesh is matched with the image of the target site, and is used to correct positional information included in the image of the target site, a method of controlling an unmanned aerial vehicle.
제1항에 있어서,
상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 1,
The calibration points include a point corresponding to a vertex of the route on the route among the second points.
제1항에 있어서,
상기 제1 메시를 생성하는 단계는,
상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계; 및
상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계
를 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 1,
The step of generating the first mesh,
Converting the location information of the target site at each of the second points into coordinates of a spherical coordinate system based on each calibration point of the calibration points; And
Generating the first mesh by dividing the target area into a plurality of areas based on the transformed coordinates
Containing, a method of controlling an unmanned aerial vehicle.
제1항에 있어서,
상기 제1 모바일 단말 또는 외부 서버에서,
상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계;
상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계;
상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계; 및
상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계
를 더 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 1,
In the first mobile terminal or an external server,
Acquiring an image of the target site photographed by the camera;
Generating a second mesh based on the image of the target site;
Correcting second positional information on the target area included in the second mesh based on first positional information on the target area included in the first mesh; And
Generating a matching image for the target site based on the result of the correction and the image of the target site
A method for controlling an unmanned aerial vehicle further comprising a.
제4항에 있어서,
상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고,
상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고,
상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체되는, 무인 비행체를 제어하는 방법.
The method of claim 4,
The first location information includes coordinates of the target site at each of the second points converted into coordinates of a spherical coordinate system based on each calibration point of the calibration points,
The second location information includes the central coordinates of the image of the target place,
In the step of correcting, the central point coordinates are replaced with coordinates included in the first location information corresponding to the central point coordinates.
제4항에 있어서,
상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고,
상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 4,
The location information of the target site acquired by the second mobile terminal at each of the plurality of second points on the route using the survey antenna includes plane coordinates and height coordinates at each of the second points,
The first location information includes plane coordinates at each of the second points obtained by correcting the plane coordinates based on the height coordinates.
제4항에 있어서,
상기 카메라는 짐벌에 장착되고,
상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고,
상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 4,
The camera is mounted on the gimbal,
The image of the target site photographed at each of the first points includes the central coordinate of the image and information on the rotation angle of the gimbal when the image is photographed,
The second position information includes the corrected central coordinates of the image obtained by correcting the central point coordinates based on the rotation angle information and the height information of the unmanned aerial vehicle.
제1항에 있어서,
상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고,
상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.
The method of claim 1,
The second mobile terminal is operated as a client for the first mobile terminal that obtains the location information of the target location at each of the second points measured by the survey antenna and transmits it to the first mobile terminal, ,
The first mobile terminal is operated as a server for the second mobile terminal that obtains the location information of the target location from the second mobile terminal and processes the location information of the target location to generate the first mesh. How to control the vehicle.
제1항에 있어서,
상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고,
상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고,
상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함하는, 무인 비행체를 제어하는 방법.
The method of claim 1,
The controlling of the unmanned aerial vehicle to acquire an image of the destination may include controlling the unmanned aerial vehicle to acquire an image of the destination by photographing the destination at each of the first points arranged at predetermined intervals on the path, and ,
The controlling of the unmanned aerial vehicle to obtain the location information of the target location comprises: at a predetermined time interval on the route, the second mobile terminal using the survey antenna to obtain the location information of the target location Control,
The second points include points on the path at which the location information of the target site is obtained at the predetermined time interval.
제9항에 있어서,
상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고,
상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들인, 무인 비행체를 제어하는 방법.
The method of claim 9,
The calibration points are preset points on the route,
Points other than the calibration points among the second points are points located between the calibration points on the path at which the location information of the target site is obtained at the predetermined time interval, a method of controlling an unmanned aerial vehicle .
KR1020200037553A 2020-03-27 2020-03-27 Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle KR102204564B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200037553A KR102204564B1 (en) 2020-03-27 2020-03-27 Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200037553A KR102204564B1 (en) 2020-03-27 2020-03-27 Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle

Publications (1)

Publication Number Publication Date
KR102204564B1 true KR102204564B1 (en) 2021-01-19

Family

ID=74237219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200037553A KR102204564B1 (en) 2020-03-27 2020-03-27 Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle

Country Status (1)

Country Link
KR (1) KR102204564B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006027331A (en) * 2004-07-13 2006-02-02 Hiroboo Kk Method for collecting aerial image information by utilizing unmanned flying object
JP2006507483A (en) * 2002-09-20 2006-03-02 エム7 ビジュアル インテリジェンス,エルピー Data collection and processing system by mobile body
JP6055274B2 (en) * 2012-10-31 2016-12-27 株式会社トプコン Aerial photograph measuring method and aerial photograph measuring system
KR101743626B1 (en) * 2017-03-07 2017-06-08 테이즈엔지니어링(주) Stream surveying system using UAV
JP6250228B2 (en) * 2015-10-27 2017-12-20 三菱電機株式会社 Image photographing system for shape measurement of structure, remote control device, on-board control device, program and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006507483A (en) * 2002-09-20 2006-03-02 エム7 ビジュアル インテリジェンス,エルピー Data collection and processing system by mobile body
JP2006027331A (en) * 2004-07-13 2006-02-02 Hiroboo Kk Method for collecting aerial image information by utilizing unmanned flying object
JP6055274B2 (en) * 2012-10-31 2016-12-27 株式会社トプコン Aerial photograph measuring method and aerial photograph measuring system
JP6250228B2 (en) * 2015-10-27 2017-12-20 三菱電機株式会社 Image photographing system for shape measurement of structure, remote control device, on-board control device, program and recording medium
KR101743626B1 (en) * 2017-03-07 2017-06-08 테이즈엔지니어링(주) Stream surveying system using UAV

Similar Documents

Publication Publication Date Title
US10996055B2 (en) Integrated aerial photogrammetry surveys
KR102129408B1 (en) Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
KR102003187B1 (en) Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
US10089766B2 (en) Method and system of stitching aerial data using information from previous aerial images
US20200004272A1 (en) System and method for intelligent aerial inspection
JP7251474B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system
CN113345028B (en) Method and equipment for determining target coordinate transformation information
KR20200064542A (en) Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
WO2019100188A1 (en) Method for planning operation route of unmanned aerial vehicle and ground end device
KR101345554B1 (en) Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data
CN103874193A (en) Method and system for positioning mobile terminal
CN110703805B (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
KR102075028B1 (en) Unmanned High-speed Flying Precision Position Image Acquisition Device and Accurate Position Acquisition Method Using the same
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
JP6289750B1 (en) Mobile object, mobile object control method, mobile object control system, and mobile object control program
CN115439531A (en) Method and equipment for acquiring target space position information of target object
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
JP2018146524A (en) Survey system
KR20210102889A (en) Planning method, apparatus, control terminal and storage medium of survey and mapping sample points
JP7220784B2 (en) Survey sampling point planning method, device, control terminal and storage medium
CN115439528A (en) Method and equipment for acquiring image position information of target object
US20220113421A1 (en) Online point cloud processing of lidar and camera data
KR102204564B1 (en) Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle
US11566894B2 (en) Systems and methods for generating a two-dimensional map

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant