KR102204564B1 - Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle - Google Patents
Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle Download PDFInfo
- Publication number
- KR102204564B1 KR102204564B1 KR1020200037553A KR20200037553A KR102204564B1 KR 102204564 B1 KR102204564 B1 KR 102204564B1 KR 1020200037553 A KR1020200037553 A KR 1020200037553A KR 20200037553 A KR20200037553 A KR 20200037553A KR 102204564 B1 KR102204564 B1 KR 102204564B1
- Authority
- KR
- South Korea
- Prior art keywords
- location information
- unmanned aerial
- aerial vehicle
- image
- points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012937 correction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 12
- 230000006855 networking Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0205—Details
- G01S5/021—Calibration, monitoring or correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
Description
실시예들은 무인 비행체를 제어하는 방법에 관한 것으로, 특히, 무인 비행체에 포함된 모바일 단말과 측량 안테나를 사용하여 대상지의 위치 정보를 획득하도록 무인 비행체를 제어하고, 획득된 위치 정보를 사용하여 대상지에 관한 정합 이미지를 생성하는 방법에 관한 것이다. The embodiments relate to a method of controlling an unmanned aerial vehicle, and in particular, controlling the unmanned aerial vehicle to acquire location information of the destination using a mobile terminal and a survey antenna included in the unmanned aerial vehicle, and using the obtained location information It relates to how to create a matching image.
측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다. 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. Surveying is an indispensable task in constructing buildings or facilities. In surveying a target site (eg, a commercial site), there are cases in which a person may not be able to directly measure at least a part of the survey target site due to environmental or geographic factors of the survey target site. In this case, a survey may be made on the survey target using an unmanned aerial vehicle such as a drone. By utilizing an image (photo) of a survey target taken using an unmanned aerial vehicle for surveying, surveying may be possible even in an area that cannot be directly surveyed by a person on the survey target.
무인 비행체를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체에 의해 촬영된 이미지들은 GPS에 기반한 위치 정보를 포함하게 되는 바, (측량) 대상지에 대한 촬영에 따라 생성된 이미지는 미터 단위 이상의 오차를 포함하게 된다. 따라서, 이러한 이미지를 사용하여 대상지에 대한 정합 이미지를 생성할 경우 정합 이미지의 위치 정확성이 담보될 수 없다. In the case of performing a survey using an unmanned aerial vehicle, the images captured by the unmanned aerial vehicle include location information based on GPS.(Survey) The image generated according to the photographing of the target site has an error of more than a meter. Will be included. Therefore, when a registration image for a target location is generated using such an image, the positional accuracy of the registration image cannot be guaranteed.
대상지에 대해, 보다 정밀한 위치 정보를 획득하기 위해서는, 대상지에 정밀 위치 정보의 획득을 위한 (무인 비행체와 통신하는) 지상국을 별도로 설치하거나, 대상지의 복수의 위치에 대해 기준 위치 정보를 포함하는 GCP (Ground Control Point)를 설치할 필요가 있다. 그러나, 대상지의 환경에 따라 이러한 지상국/GCP의 설치가 어려운 경우에는, 대상지에 대한 정밀 위치 정보를 획득하기가 어렵게 된다. In order to obtain more precise location information for the target site, separate ground stations (communicating with the unmanned aerial vehicle) for obtaining precise location information at the target site, or GCP (which includes reference location information for multiple locations of the target site) Ground Control Point) needs to be installed. However, when it is difficult to install such a ground station/GCP according to the environment of the target site, it is difficult to obtain precise location information on the target site.
따라서, 대상지에 대해 별도의 지상국 또는 GCP를 설치할 필요 없이, 무인 비행체의 비행만으로 대상지에 대해 보다 정밀한 위치 정보를 획득할 수 있으며, 나아가 이러한 위치 정보를 사용하여 대상지에 대한 정합 이미지를 생성할 수 있도록 하는 방법이 요구된다. Therefore, without the need to install a separate ground station or GCP for the target site, it is possible to obtain more precise location information for the target site only by flying by an unmanned aerial vehicle, and furthermore, to create a matched image for the target site using this location information. How to do it is required.
한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Patent Registration No. 10-1532582 (registration date June 24, 2015) relates to a method of processing cadastral survey data, and each parcel is for the purpose of registering land for land study or restoring the boundary registered for cadastral study on the surface. Disclosed is a method for processing cadastral survey data that enables efficient and systematic maintenance and management of cadastral survey data obtained when setting a reference point for surveying the boundary or area of a site.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only, may include content that does not form part of the prior art, and may not include what the prior art may present to a person skilled in the art.
일 실시예는, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법으로서, 무인 비행체가 경로를 비행하는 동안, 카메라가 경로 상의 제1 지점들의 각각에서 대상지의 이미지를 획득하고, 경로 상의 소정의 캘리브레이션 포인트들을 포함하는 제2 지점들의 각각에서 대상지의 위치 정보를 획득하도록, 무인 비행체를 제어하고, 대상지의 위치 정보를 수집하여 대상지와 연관된 제1 메시를 생성하는 방법을 제공할 수 있다. One embodiment is a method of controlling an unmanned aerial vehicle including a camera, a second mobile terminal, and a surveying antenna, performed by a first mobile terminal, wherein the camera is a first point on the path while the unmanned aerial vehicle is flying on the path. Control the unmanned aerial vehicle to acquire the image of the target site from each of the fields and acquire the location information of the target site at each of the second points including predetermined calibration points on the route, and collect the location information of the target site 1 Can provide a way to generate the mesh.
일 실시예는, 무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 위치 정보에 기반하여 생성된 제1 메시와, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지에 기반하여 생성된 제2 메시를 정합함으로써, 위치 정보가 보정된 대상지의 이미지로서 정합 이미지를 생성하는 방법을 제공할 수 있다. In one embodiment, the first mesh generated based on the location information of the target site acquired using the surveying antenna of the unmanned aerial vehicle and the second mesh generated based on the image of the target site captured by the camera of the unmanned aerial vehicle are matched. By doing so, it is possible to provide a method of generating a matched image as an image of a target site whose positional information is corrected.
일 측면에 있어서, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법에 있어서, 상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고, 상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계 및 상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계를 포함하고, 상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계를 포함하고, 상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법이 제공된다. In one aspect, in a method for controlling an unmanned aerial vehicle including a camera, a second mobile terminal, and a surveying antenna performed by a first mobile terminal, the unmanned aerial vehicle is controlled by the first mobile terminal , Controls the unmanned aerial vehicle so that it is controlled to fly a preset path on the target site, and while flying the path, the camera captures the target site at each of a plurality of first points on the path to obtain an image of the target site The step of, while flying the route, controlling the unmanned aerial vehicle so that the second mobile terminal acquires location information of the target location at each of a plurality of second points on the route using the survey antenna, the Collecting location information of the target location from a second mobile terminal and generating a first mesh associated with the target location based on the collected location information, wherein the second points include at least two calibration points And, the step of controlling the unmanned aerial vehicle to obtain the location information of the target site, comprising the step of controlling the unmanned aerial vehicle to stop for a predetermined time at each of the calibration points, the first mesh A method of controlling an unmanned aerial vehicle is provided that is matched with the image of the target site and used to correct the location information included in the image of the target site.
상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함할 수 있다. The calibration points may include a point corresponding to a vertex of the route on the route among the second points.
상기 제1 메시를 생성하는 단계는, 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계 및 상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계를 포함할 수 있다.The generating of the first mesh may include converting the location information of the target site at each of the second points into coordinates of a spherical coordinate system based on the calibration points of the calibration points, and based on the converted coordinates Thus, it may include generating the first mesh by dividing the target area into a plurality of regions.
다른 일 측면에 있어서, 상기 제1 모바일 단말 또는 외부 서버에서, 상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계, 상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계, 상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계 및 상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계를 더 포함하는, 대상지에 대한 정합 이미지 생성 방법이 제공된다. In another aspect, in the first mobile terminal or an external server, acquiring an image of the target site photographed by the camera, generating a second mesh based on the image of the target site, the first mesh Correcting the second location information of the target area included in the second mesh based on the first location information of the target area included in, and based on the result of the correction and the image of the target area, the target area There is provided a method of generating a registration image for an object, further comprising generating a registration image for
상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고, 상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고, 상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체될 수 있다. The first location information includes coordinates of the target site at each of the second points converted into coordinates of a spherical coordinate system based on each calibration point of the calibration points, and the second location information is an image of the target site In the step of correcting and including the central point coordinates of, the central point coordinates may be replaced with coordinates included in the first location information corresponding to the central point coordinates.
상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고, 상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함할 수 있다. The location information of the target site acquired by the second mobile terminal at each of the plurality of second points on the route using the survey antenna includes plane coordinates and height coordinates at each of the second points, and the second 1 The location information may include plane coordinates at each of the second points obtained by correcting the plane coordinates based on the height coordinates.
상기 카메라는 짐벌에 장착되고, 상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고, 상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함할 수 있다. The camera is mounted on the gimbal, and the image of the target site photographed at each of the first points includes the center coordinate of the image and information on the rotation angle of the gimbal when the image is captured, and the second position information May include the corrected center point coordinates of the image obtained by correcting the center point coordinates based on the rotation angle information and the height information of the unmanned aerial vehicle.
상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고, The second mobile terminal is operated as a client for the first mobile terminal that obtains the location information of the target location at each of the second points measured by the survey antenna and transmits it to the first mobile terminal, ,
상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.The first mobile terminal is operated as a server for the second mobile terminal that obtains the location information of the target location from the second mobile terminal and processes the location information of the target location to generate the first mesh. How to control the vehicle.
상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고, 상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함할 수 있다. The controlling of the unmanned aerial vehicle to acquire an image of the destination may include controlling the unmanned aerial vehicle to acquire an image of the destination by photographing the destination at each of the first points arranged at predetermined intervals on the path, and , The controlling of the unmanned aerial vehicle to obtain the location information of the destination may include, at a predetermined time interval on the route, the second mobile terminal using the survey antenna to obtain the location information of the destination. And the second points may include points on the path at which the location information of the target site is obtained at the predetermined time interval.
상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고, 상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들일 수 있다. The calibration points are preset points on the route, and points other than the calibration points among the second points are, at the predetermined time interval, between the calibration points on the route where the location information of the target site is obtained. It may be points located at.
카메라, 제2 모바일 단말 및 예컨대, DGPS 안테나와 같은 측량 안테나를 포함하는 무인 비행체를 사용하여 대상지를 비행하여, 대상지의 위치 정보를 획득함으로써, 무인 비행체를 사용하여 대상지를 측량함에 있어서, 별도의 지상국이나 GCP를 대상지에 설치하지 않고도, 기존의 GPS에 기반한 위치 정보에 비해 보다 정밀한 위치 정보를 획득할 수 있다. By using an unmanned aerial vehicle including a camera, a second mobile terminal, and, for example, a surveying antenna such as a DGPS antenna, to fly the target area and obtain the location information of the target area, a separate ground station Or, it is possible to obtain more precise location information compared to existing GPS-based location information without installing GCP on the target site.
무인 비행체를 사용하여, 무인 비행체의 경로 상의 지점들에서 위치 정보를 획득함에 있어서, 상기 지점들 중 캘리브레이션 포인트에 해당하는 지점에서는 무인 비행체가 소정의 시간 동안 정지하도록 제어됨으로써, 위치 정보의 캘리브레이션을 위해 사용되는 보다 정확한 위치 값을 획득할 수 있다. In obtaining location information at points on the path of the unmanned aerial vehicle using an unmanned aerial vehicle, the unmanned aerial vehicle is controlled to stop for a predetermined time at a point corresponding to a calibration point among the points, thereby calibrating the location information. It is possible to obtain a more accurate position value used.
무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 정밀 위치 정보에 기반하여, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지의 위치 정보를 보정함으로써, 대상지에 대한 정밀 위치 정보를 포함하는 정합 이미지를 생성할 수 있다. Based on the precise location information of the target area acquired using the surveying antenna of the unmanned aerial vehicle, by correcting the location information of the image of the target area captured by the camera of the unmanned aerial vehicle, a matched image including the precise location information of the target area is generated. can do.
도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다.
도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다.
도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다. 1 illustrates a method of processing images of a target site and location information of a target site acquired from an unmanned aerial vehicle, according to an embodiment.
FIG. 2 is a block diagram illustrating an unmanned aerial vehicle, and a mobile terminal and a server that process images of a destination and location information of the destination obtained from the unmanned aerial vehicle, according to an exemplary embodiment.
3 is a flowchart illustrating a method of controlling an unmanned aerial vehicle to obtain image and location information of a target site according to an exemplary embodiment.
4 is a flowchart illustrating a method of generating a matching image for a target place by processing an image and location information acquired for a target place, according to an exemplary embodiment.
5 illustrates a method of obtaining an image and location information of a target site by an unmanned aerial vehicle as it flies a path according to an example.
6 illustrates a method of generating a matched image by matching a first mesh based on location information of a target site acquired by a survey antenna and a second mesh based on an image of the target site acquired by a camera, according to an example.
7 and 8 are flowcharts illustrating a method of correcting location information included in an image of a target site acquired by a camera, according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.
도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다. 1 illustrates a method of processing images of a target site and location information of a target site acquired from an unmanned aerial vehicle, according to an exemplary embodiment.
한편, 도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다. Meanwhile, FIG. 2 is a block diagram illustrating an unmanned aerial vehicle and a mobile terminal and a server that process images of a destination and location information of the destination obtained from the unmanned aerial vehicle, according to an exemplary embodiment.
도 1을 참조하여, 무인 비행체(110)에 의한 비행을 통해 대상지(150)에 대해 측량을 수행함에 있어서, 무인 비행체(110)를 제어하고, 무인 비행체(110)로부터 획득된 위치 정보 및 이미지를 처리하는 방법을 설명한다. Referring to FIG. 1, in performing a survey on the
도 1에서 도시된 대상지(150)는 상업지, 건축 예정지 등을 비롯한 측량의 대상(또는, 무인 비행체(110)의 촬영의 대상)이 되는 구역(토지의 구역)을 나타낼 수 있다. The
무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하면서 대상지(150)를 촬영할 수 있다. 촬영에 따라 획득되는 대상지(150)의 이미지들은 모바일 단말(100) 및/또는 서버(120)로 전달될 수 있고, 모바일 단말(100) 및/또는 서버(120)에서 이러한 이미지들이 처리될 수 있다. The unmanned
예컨대, 무인 비행체(110)로부터의 이미지들은 소정의 정합 프로세스에 의해 모바일 단말(100) 및/또는 서버(120)에서 정합 이미지로 변환될 수 있다. For example, images from the unmanned
무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 촬영을 통해 대상지(150)의 이미지를 획득할 수 있다. 무인 비행체(110)는 대상지(150)의 촬영을 위한 카메라(260)를 포함할 수 있다.The unmanned
또한, 무인 비행체(110)는 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 위치 정보를 획득할 수 있다. 이러한 위치 정보의 획득은 전술한 카메라(260)를 통한 촬영과는 별개로 이루어질 수 있다. 무인 비행체(110)는 대상지(150)의 위치 정보의 획득을 위한 측량 안테나(250)를 포함할 수 있다. 측량 안테나(250)는, 무인 비행체(110)가 일반적으로 포함하는 GPS 모듈에 비해 고정밀의 위치 정보를 획득할 수 있도록 하는 안테나일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 이러한 측량 안테나(250)는 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다.In addition, the unmanned
또한, 무인 비행체(110)에는 측량 안테나(250)를 사용하여 대상지(150)의 위치 정보를 획득함에 있어서, 측량 안테나(250)와 통신하는 단말을 포함할 수 있다. 이러한 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있으며, 모바일 단말(200)일 수 있다. 측량 안테나(250)는 획득된 대상지(150)의 위치 정보를 모바일 단말(200)로 전송할 수 있다. In addition, the unmanned
따라서, 무인 비행체(110)는 필요에 따라 측량 안테나(250) 및 모바일 단말(200)을 포함하도록 구성될 수 있다.Therefore, the unmanned
무인 비행체(110)로부터의 대상지(150)의 위치 정보 및 이미지는 모바일 단말(100)로 전달될 수 있다. The location information and image of the
예컨대, 측량 안테나(250)를 통해 획득된 대상지(150)의 위치 정보는 무인 비행체(110)에 포함된 모바일 단말(200)(이하, 제2 모바일 단말이라 함)을 통해 모바일 단말(100)(이하, 제1 모바일 단말이라 함)로 전달될 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 전달은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 다만, 대상지(150)의 이미지는 (상대적으로 고용량인 바) 비행이 완료된 후 제1 모바일 단말(100)로의 전달은 와이파이(WIFI) 또는 셀룰러 네트워크를 통해 이루어질 수 있다. For example, the location information of the
제1 모바일 단말(100)은 무인 비행체(110)를 제어하기 위해 사용되는 단말일 수 있다. 제1 모바일 단말(100)에는 무인 비행체(110)의 비행을 제어하기 위한 어플리케이션/프로그램이 설치될 수 있다. 사용자는 제1 모바일 단말(100)을 통해 무인 비행체(110)의 비행을 위한 대상지(150) 상의 경로(115)를 설정할 수 있다. 말하자면, 제1 모바일 단말(100)은 무인 비행체(110)의 비행을 위한 스케쥴링을 수행할 수 있고, 무인 비행체(110)에 대해 설정된 경로 및 스케출링에 따른 비행을 명령할 수 있다. The first
또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수신할 수 있고, 수신된 위치 정보를 처리할 수 있다. 제1 모바일 단말(100)은 대상지(150)의 위치 정보를 처리함으로써 대상지에 대한 제1 메시를 생성할 수 있다. Also, the first
또한, 제1 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 수신할 수 있다. In addition, the first
제1 모바일 단말(100)은 대상지(150)의 위치 정보 및 대상지(150)의 이미지를 처리함으로써, 대상지(150)에 대한 정합 이미지를 생성할 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)의 위치 정보에 기반하여 대상지(150)의 이미지의 위치 정보를 보정할 수 있고, 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.The first
또는, 제1 모바일 단말(100)에서는 대상지(150)의 위치 정보만이 처리되고, 이미지에 대한 처리는 서버(120)에서 수행될 수도 있다. 이 때, 서버(120)는 제1 모바일 단말(100)에 의해 생성된 제1 메시와 대상지(150)의 이미지를 사용하여, 상기 위치 정보가 보정된 이미지를 생성할 수 있고, 이에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.Alternatively, only the location information of the
서버(120)에서 이미지의 (정합) 처리가 이루어지는 경우, 서버(120)는 무인 비행체(110)로부터 이미지들을 직접 획득할 수도 있다. When the image is processed by the
실시예에 따라 생성된 대상지(150)에 대한 정합 이미지는 측량 안테나에 의해 획득된 대상지(150)의 보다 정확한 위치 정보를 사용하여, 위치 정보가 보정된 대상지(150)의 이미지에 기반한 것일 수 있다. 따라서, 이러한 정합 이미지는, 카메라(260)에 의해 단순히 촬영되어 획득된 대상지(150)의 이미지(즉, 미터 단위의 오차를 포함하는 GPS 에 기반한 위치 정보를 포함하는 이미지)에 기반하여 생성된 정합 이미지에 비해, 고정밀의 위치 정보(예컨대, 센티미터 또는 밀리미터 단위의 오차를 갖는 위치 정보)를 가질 수 있다. The matching image for the
정합 이미지는 각각이 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 복수의 이미지들이 결합됨으로써 생성된 대상지(150)의 전체를 나타내는 단일한 이미지일 수 있다. The matched image may be a single image representing the whole of the
실시예에서는, 카메라(260)에 의해 촬영되어 획득된 대상지(150)의 이미지(즉, 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 이미지)들의 위치 정보가 측량 안테나(250)에 의해 획득된 정밀한 위치 정보로 대체되고, 이러한 위치 정보가 대체된 대상지(150)의 이미지들이 결합됨으로써 대상지(150)에 대한 정합 이미지가 생성될 수 있다. In the embodiment, the location information of the image of the
아래에서는, 도 2를 참조하여, 무인 비행체(110), 서버(120) 및 모바일 단말(100)의 구체적인 구성들에 대해 설명한다.Below, with reference to FIG. 2, specific configurations of the unmanned
도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 대상지(150)를 비행하여 대상지(150)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 무인 비행체(110)는 특정 지점에서 정지(체공)할 수 있는 장치일 수 있다. As described above with reference to FIG. 1, the unmanned
무인 비행체(110)는 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로(115)를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말로서 모바일 단말(100)일 수 있음)을 통해 소정의 경로(115)를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 대상지(150)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. The unmanned
무인 비행체(110)는 경로(115) 상의 각 웨이 포인트에서 대상지(150)를 촬영할 수 있다. 이 때, 촬영된 이미지의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 웨이 포인트와는 별개인 경로(115) 상의 위치가 될 수도 있다. The unmanned
무인 비행체(110)가 대상지(150)를 촬영하는 위치는 촬영된 이미지의 중점이 될 수 있다. 촬영된 이미지의 중점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다. 이러한 위치 정보는 무인 비행체(110)의 GPS 모듈에 기반한 값일 수 있다. The location at which the unmanned
무인 비행체(110)는 통신부, 카메라, 프로세서 및 저장부를 포함할 수 있다. The unmanned
통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be a configuration for the unmanned
무인 비행체(110)는 통신부를 통해 모바일 단말(100) 또는 서버(120)와 통신하거나, 이들에게 촬영된 이미지들을 전송할 수 있다.The unmanned
프로세서는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 프로세서는 도시된 컨트롤러(280)이거나 그 일부일 수 있다. The processor may manage the components of the unmanned
카메라(260)는 비행 중에 대상지(150)를 촬영하기 위한 장치일 수 있다. 카메라는 대상지(150)를 촬영함으로써 이미지(이미지 파일)을 생성할 수 있다. 카메라는 CCD를 포함할 수 있고, 이미지의 해상도는 CCD의 픽셀 크기(화소 크기)에 의해 결정될 수 있다. The
저장부는 카메라에 의한 촬영에 의해 생성된 이미지를 저장하기 위한 스토리지를 포함할 수 있다. 저장부는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The storage unit may include a storage for storing an image generated by photographing by a camera. The storage unit may be any internal memory of the unmanned
도시된 것처럼, 무인 비행체(110)는 측량 안테나(250), 제2 모바일 단말(200) 및 센서부(270)를 더 포함할 수 있다. 전술된 것처럼, 측량 안테나(250) 및 제2 모바일 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다. As shown, the unmanned
측량 안테나(250)는 GSP 모듈에 비해 고정밀의 위치 정보를 획득하기 위한 장치일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 측량 안테나(250)는 비행 동안 무인 비행체(110)의 위치 정보를 획득할 수 있다. 획득되는 위치 정보는 평면 위치 정보(2차원 위치 정보)를 포함할 수 있다. 또한, 위치 정보는 무인 비행체(110)의 높이(고도) 정보를 더 포함할 수 있다. 측량 안테나(250)는 예컨대, 지오이드고를 사용하여 무인 비행체(110)의 높이 정보를 획득할 수 있다. 실시예에서, 높이 정보는 평면 위치 정보(평면 좌표)를 보정하기 위해 사용될 수 있다. The
모바일 단말(200)은 측량 안테나(250) 및 모바일 단말(100)과 통신하기 위한 장치일 수 있다. 모바일 단말(200)은 측량 안테나(250)에 의한 위치 정보의 획득을 제어할 수 있고, 측량 안테나(250)로부터 위치 정보를 수신하여, 모바일 단말(100)로 송신할 수 있다. 모바일 단말(200)은 모바일 단말(100)과 동일 또는 동종의 단말일 수 있다. 모바일 단말(200)은 무인 비행체(110)의 컨트롤러(280)와도 통신할 수 있다. The
센서부(270)는 무인 비행체(110)의 비행에 있어서 요구되는 센싱 데이터를 획득하기 위한 장치일 수 있다. 센서부(270)는 예컨대, 라이다(RIDAR)를 포함할 수 있다. 또한, 센서부(270)는 별도의 높이(고도) 센서를 포함할 수 있다. 센서부(270)가 높이 센서를 포함하는 경우, 이러한 센서부(270)가 획득하는 높이 정보는 측량 안테나(250)가 획득하는 높이 정보에 비해 더 고정밀일 수 있다. The
모바일 단말(100)은 무인 비행체(110)의 비행을 스케쥴링 및 제어하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 위치 정보를 획득하여 처리하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 획득하여 처리할 수도 있다. The
모바일 단말(100)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 모바일 단말(100)은 무인 비행체(110)와 통신하며 무인 비행체(110)를 제어할 수 있다.The
모바일 단말(100)은 통신부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The
통신부(210)는 무인 비행체(110)에 의해 촬영된 이미지들 및/또는 획득된 (고정밀의) 위치 정보를 획득하기 위해 무인 비행체(110)(모바일 단말(200))와 통신하는 구성이거나, 이미지의 획득을 위해 무인 비행체(110)의 저장부와 접속하는 구성일 수 있다. 예컨대, 통신부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지/위치 정보를 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지를 획득할 수 있다. The
또한, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.In addition, the
프로세서(220)는 모바일 단말(100)의 구성 요소들을 관리할 수 있고, 모바일 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 획득된 위치 정보를 수집하고, 수집된 위치 정보를 처리하여 대상지(150)와 연관된 제1 메시를 생성하기 위해 필요한 연산을 수행할 수 있다. 또한, 실시예에 따라, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수도 있다. The
프로세서(220)는 모바일 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서(220)에 의한 동작에 의해 도 3 내지 도 8을 참조하여 후술될 무인 비행체를 제어하는 방법 및 정합 이미지 생성 방법이 수행될 수 있다. 프로세서(220)는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The
표시부(230)는 모바일 단말(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들 및 결과적으로 생성된 정합 이미지를 출력하기 위한 디스플레이 장치일 수 있다. 표시부(230)는 터치 스크린을 포함할 수 있다.The
한편, 전술된 제2 모바일 단말(200)은 제1 모바일 단말(100)과 유사한 구성을 포함하도록 구성될 수 있는 바, 중복되는 설명은 생략한다. Meanwhile, since the above-described second
서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들을 획득하여 이미지들을 처리하기 위한 장치일 수 있다. 서버(120)는 획득된 이미지들을 정합함으로써 정합 이미지를 생성할 수 있다.The
서버(120)는 무인 비행체(110)와는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 서버(120)는 이미지들에 대한 정합 프로세스를 수행하기 위한 고성능의 PC 또는 컴퓨팅 장치를 포함할 수 있다. The
서버(120)는 통신부 및 프로세서를 포함할 수 있다. 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(100) 및 무인 비행체(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. 예컨대, 또한, 서버(120)의 프로세서는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 모바일 단말(100)에 의해 생성된 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수 있다.The
무인 비행체(110)를 제어하는 구체적인 방법과, 대상지(150)에 대한 정합 이미지의 생성 방법의 상세한 내용은 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명한다. A detailed method of controlling the unmanned
후술될 상세한 설명에서, 모바일 단말(100) 또는 프로세서(220)의 구성들에 의해 수행되는 동작이나 모바일 단말(100) 또는 프로세서(220)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(100)에 의해 수행되는 동작으로 설명될 수 있다. 서버(120) 및 무인 비행체(110)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the components of the
도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of controlling an unmanned aerial vehicle to obtain an image and location information of a target site according to an exemplary embodiment.
도 3을 참조하여, 제1 모바일 단말(100)에 의해 수행되는, 카메라(260), 제2 모바일 단말(200) 및 측량 안테나(250)를 포함하는 무인 비행체(110)를 제어하는 방법에 대해 상세하게 설명한다. Referring to FIG. 3, a method of controlling the unmanned
무인 비행체(110)는, 제1 모바일 단말(100)에 의한 제어에 의해, 대상지(150) 상의 기 설정된 경로(115)를 비행하도록 제어될 수 있다. The unmanned
단계(310)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 카메라(260)가 경로(115) 상의 복수의 제1 지점들의 각각에서 대상지(150)를 촬영하여 대상지(150)의 이미지를 획득하도록 무인 비행체(110)를 제어할 수 있다. 제1 지점들의 각각(또는 적어도 일부)은 경로(110) 상의 웨이 포인트일 수 있다. 제1 지점들의 각각은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. In
비행체(110)는 이러한 제1 지점들의 각각을 통과할 때, 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 단계(310)에 따라, 무인 비행체(110)는 대상지(150)를 촬영하는 복수의 이미지들을 획득할 수 있다. 각 이미지는 대상지(150)의 일부를 촬영하는 것일 수 있고, 무인 비행체(110)는 소정의 중복률을 갖도록 대상지(150)를 촬영할 수 있다. 중복률은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 중복률을 갖도록 대상지(150)를 촬영한 복수의 이미지들은 대상지(150)에 대한 하나의 정합 이미지를 생성하기 위해 사용될 수 있다. When the
대상지(150)의 이미지는 해당 이미지가 촬영된 위치에 대한 위치 정보를 포함할 수 있다. 이러한 위치 정보는, 예컨대, 무인 비행체(110)가 포함하는 GPS 모듈에 기반하여 획득되는 것으로서, 미터 단위의 오차를 갖는 것일 수 있다. The image of the
단계(320)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들의 각각에서 대상지(150)의 위치 정보를 획득하도록 무인 비행체를 제어할 수 있다. 제2 지점들의 각각(또는 적어도 일부)은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. In
또는, 제2 지점들의 각각(또는 적어도 일부)은 기 설정된 지점이 아니며, 무인 비행체(110)가 경로(115)를 비행하는 동안 소정의 시간 간격으로 측량 안테나(250)를 이용하여 대상지(150)의 위치 정보를 획득하는 경로(115) 상의 지점일 수 있다. 말하자면, 제1 모바일 단말(100)은 경로(115) 상에서 소정의 시간 간격으로, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 대상지(150)의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있고, 상기 제2 지점들은 이러한 소정의 시간 간격으로 대상지(150)의 위치 정보가 획득되는 경로(115) 상의 지점을 포함할 수 있다. 즉, 경로(115)를 비행하는 무인 비행체(110)는 소정의 시간 간격으로 대상지(150)의 위치 정보를 획득할 수 있다. 이러한 소정의 시간 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초로 설정될 수 있다.Alternatively, each (or at least some) of the second points is not a preset point, and while the unmanned
측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는, 예컨대, DGPS 안테나를 사용하여 획득된 것으로서, 단계(310)에서 획득된 이미지가 포함하는 위치 정보에 비해 더 정밀한 것일 수 있다. 일례로, 측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는 센티미터 단위의 오차만을 포함하는 것일 수 있다. The location information of the
위치 정보가 획득되는 경로(115) 상의 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함할 수 있다. 다른 실시예로서 이러한 캘리브레이션 포인트는 하나일 수도 있다. 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는, 후술될 단계(340)의 제1 메시를 생성함에 있어서, 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 대한 기준이 될 수 있다. 말하자면, 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 비해 더 정확한 위치 정보인 것으로 가정될 수 있다. The second points on the
캘리브레이션 포인트에서 이러한 더 정확한 위치 정보를 얻기 위해 다음의 단계들(322 및 324)이 수행될 수 있다.The following
단계(322)에서, 제1 모바일 단말(100)은, 캘리브레이션 포인트들의 각각에서 소정의 시간(일정 시간) 동안 무인 비행체(110)가 정지(체공)하도록 무인 비행체(110)를 제어할 수 있다. 이러한 소정의 시간은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초 또는 2초로 설정될 수 있다. In
단계(324)에서, 제1 모바일 단말(100)은, (무인 비행체(110)가 정지한 상태에서) 캘리브레이션 포인트에서의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있다. 무인 비행체(110)가 정지한 상태에서 위치 정보가 획득됨으로써, 무인 비행체(110)의 이동에 따른 오차가 발생하지 않게 되는 바, 보다 정확한 위치 정보가 획득될 수 있다. In
캘리브레이션 포인트들의 각각은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 예컨대, 캘리브레이션 포인트들은 제2 지점들 중 경로 상에서 경로(115)의 꼭지점에 대응하는 지점을 포함할 수 있다. 경로(115)의 꼭지점은 경로(115)를 비행하는 무인 비행체(110)가 턴(즉, 방향을 바꾸는) 위치일 수 있다. 또는, 경로(115)의 꼭지점은 대상지(150)의 꼭지점에 대응하는 경로(115) 상의 위치일 수 있다. Each of the calibration points can be set by the mobile terminal 100 (before the flight of the unmanned aerial vehicle 110). For example, the calibration points may include a point corresponding to a vertex of the
관련하여, 도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다. In connection with this, FIG. 5 shows a method of obtaining an image and location information of a target site by an unmanned aerial vehicle according to an exemplary embodiment.
도 5의 우측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제1 지점들(520)의 각각에서 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 제1 지점들(520)의 각각은 경로(115) 상의 소정의 간격의 지점일 수 있다. As shown on the right side of FIG. 5, the unmanned
한편, 도 5의 좌측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제2 지점들(510)의 각각에서, 측량 안테나(250)를 이용하여, 대상지(150)의 위치 정보를 획득할 수 있다. 도시된 예시에서, 경로(115)의 꼭지점들에는 캘리브레이션 포인트들(514)이 위치되고, 캘리브레이션 포인트들(514)의 사이에 캘리브레이션 포인트들(514)이 아닌 제2 지점들(512)이 위치될 수 있다. Meanwhile, as shown on the left side of FIG. 5, the unmanned
전술한 것처럼, 캘리브레이션 포인트들(514)은 경로(115) 상의 (예컨대, 모바일 단말(100)에 의해) 기 설정된 지점일 수 있다. 이 때, 제2 지점들(510) 중 캘리브레이션 포인트들(514)을 제외한 제2 지점들(512)은, (예컨대, 1초와 같은) 소정의 시간 간격으로, 대상지(150)의 위치 정보가 획득되는 경로(115) 상에서의 캘리브레이션 포인트들(514) 사이에 위치하는 지점들일 수 있다. 이러한 제2 지점들(512)은 기 설정된 지점이 아니며, 기 설정된 시간 간격에 따른 무인 비행체(110)의 비행에 의해 결정되는 지점들일 수 있다. 시간 간격이 작게 설정될수록 더 많은 위치 정보가 획득될 수 있는 바, 대상지(150)를 보다 정확하게 반영하는 (후술될) 제1 메시가 생성될 수 있다. 이로 인해서는, 결과적으로 생성되는 정합 이미지의 정확도가 높아지게 될 수 있다. As described above, the calibration points 514 may be preset points on the path 115 (eg, by the mobile terminal 100 ). At this time, the
즉, 경로(115)를 비행하는 무인 비행체(110)는 기 설정된 캘리브레이션 포인트들(514)의 각각에서 소정의 시간 동안 정지하여 대상지(150)의 위치 정보를 획득할 수 있고, 캘리브레이션 포인트들(514)의 사이를 이동하는 동안 소정의 시간 간격으로 (지점들(512)의 각각에서) 대상지(150)의 위치 정보를 획득할 수 있다.That is, the unmanned
단계(310)에서의 이미지의 획득 및 단계(320)에서의 위치 정보의 획득은 서로 독립적으로 이루어질 수 있다. 무인 비행체(110)의 비행에 따라, 제1 지점 및 제2 지점은 겹쳐질 수 있을 것이나, 제1 지점 및 제2 지점은 경로(115) 상에서 서로 독립적인 지점일 수 있다. 실시예에 따라서는, 제1 지점 및 제2 지점이 동일하게 설정될 수도 있다. The acquisition of the image in
단계(310) 및 단계(320)은 순차적으로 수행되는 것이 아니라 병렬적으로 수행되는 것일 수 있다. 말하자면, 무인 비행체(110)는 경로(115)를 한 번 비행하는 것을 통해 이미지 및 위치 정보를 모두 획득할 수 있다.
단계(330)에서, 제1 모바일 단말(100)은, 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수집할 수 있다. 말하자면, 제1 모바일 단말(100)은 제2 모바일 단말(200)과 통신함으로써 측량 안테나(250)를 이용하여 획득된 대상지(150)에 대한 (고정밀의) 위치 정보를 수집할 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 또는, 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 소정의 시간 간격으로 이루어질 수 있다. In
단계(340)에서, 제1 모바일 단말(100)은, 단계(330)에서 수집된 위치 정보에 기반하여 대상지(150)와 연관된 제1 메시를 생성할 수 있다. 제1 메시는 대상지(150)를 수집된 위치 정보에 기반하여 복수의 영역으로 분할한 것일 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)를 수집된 위치 정보를 기준으로 복수의 영역으로 분할함으로써 제1 메시를 생성할 수 있다. In
제1 메시를 생성하는 방법에 대해서는 다음의 단계들(342 및 344)을 참조하여 더 자세하게 설명된다. The method of generating the first mesh is described in more detail with reference to the following
단계(342)에서, 제1 모바일 단말(100)은 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 제2 지점들(510)의 각각에서 획득된 대상지(150)의 위치 정보를 구면 좌표계의 좌표로 변환할 수 있다. 구면 좌표계의 좌표는 예컨대, 경위도 좌표를 포함할 수 있다. 즉, 단계(320)에서 획득된 위치 정보가 포함하는 평면 좌표는 구면 좌표계의 좌표로 변환될 수 있다. 이 때, 캘리브레이션 포인트들(514)에서 획득된 위치 정보가 포함하는 좌표는 정확한 것으로 가정될 수 있으므로 이를 기준으로 좌표의 변환이 수행될 수 있다. 또한, 캘리브레이션 포인트들(514)에서 획득된 위치 정보(좌표들)를 기준으로 다른 제2 지점들(512)에서 획득된 위치 정보(좌표들)은 보정될 수 있다. In
단계(344)에서, 제1 모바일 단말(100)은 이러한 변환된 좌표에 기반하여 대상지(150)를 복수의 영역들로 분할한 제1 메시를 생성할 수 있다. In
제1 메시는 예컨대, 도 6에서 도시된 것과 같이 생성될 수 있다. 도 6에서 도시된 것처럼, 제1 메시(600)는 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제1 메시(600)는 대상지(150)를 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들을 기준으로 분할함으로써 생성될 수 있다. The first mesh can be created, for example, as shown in FIG. 6. As shown in FIG. 6, the
일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들에 기반하여 보간된(interpolation) 좌표)가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 상기 보간된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표)를 포함할 수 있다. 말하자면, 제1 메시(600)는 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들 및/또는 이들이 보간된 좌표들을 포함할 수 있다. As an example, at least one of the vertices of the divided regions includes location information (coordinates) obtained in
이와 같이 생성된 제1 메시(600)는 단계(310)에서 획득된 대상지(150)의 이미지와 정합되어, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다. "정합"은 제1 메시(600)가 포함하는 위치 정보를 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보에 매칭시키는 것으로서, 제1 메시(600)가 포함하는 위치 정보를 기준으로 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보를 보정하거나, 이를 대체하는 것일 수 있다. 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지가 생성될 수 있다. The
제1 메시(600)를 사용하여 대상지(150)에 대한 정합 이미지를 생성하는 방법에 대해서는 후술될 도 4 및 도 6을 참조하여 더 자세하게 설명된다.A method of generating a registration image for the
한편, 제2 모바일 단말(200)은, 측량 안테나(250)에 의해 측정된 제2 지점들(510)의 각각에서의 대상지(150)의 위치 정보를 획득하여, 제1 모바일 단말(100)로 전달하는 것이라는 점에서, 제1 모바일 단말(100)에 대한 클라이언트로서 동작될 수 있다. On the other hand, the second
또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 획득하여, 제1 메시(600)를 생성하기 위해 대상지(150)의 위치 정보를 처리하는 것이라는 점에서, 제2 모바일 단말(200)에 대한 서버로서 동작될 수 있다.In addition, the first
실시예에서, 제1 모바일 단말(100) 및 제2 모바일 단말(200)은 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하기 위한 동일한 프로그램/어플리케이션을 실행할 수 있다. 이 때, 상기 프로그램/어플리케이션을 통한 제어에 따라, 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하는 제1 모바일 단말(100)은 "서버 모드"로 설정될 수 있고, 측량 안테나(250)와 통신하고 위치 정보를 획득하도록 무인 비행체(110)에 탑재되는 단말은 "클라이언트 모드"로 설정될 수 있다. In an embodiment, the first
이상, 도 1 및 2를 참조하여 전술된 기술적 특징은 도 3 및 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 may be applied to FIGS. 3 and 5 as they are, and thus redundant descriptions are omitted.
도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다. 4 is a flowchart illustrating a method of generating a matching image for a target place by processing an image and location information acquired for a target place, according to an exemplary embodiment.
후술될 단계들(410 내지 440)은 모바일 단말(100) 또는 (외부의) 서버(120)에 의해 수행될 수 있다. 대상지(150)에 대한 정합 이미지를 생성하기 위한 단계들(410 내지 440)은, 단계(310) 및 단계(320)에서 획득된 이미지 및 위치 정보에 대한 후처리 작업일 수 있다.
서버(120)에 비해 상대적으로 저성능인 모바일 단말(100)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 일부(또는, 단계(320)에서 획득된 위치 정보의 일부)에 대해서만 정합이 수행될 수 있다. 다만, 고성능의 PC 또는 컴퓨팅 장치를 포함하는 서버(120)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 전부(또는, 단계(320)에서 획득된 위치 정보의 전부)에 대해 정합이 수행될 수 있다.When the
관련하여, 도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다. 6 is a method for generating a matched image by matching a first mesh based on the location information of the target site acquired by a survey antenna and a second mesh based on the image of the target site acquired by the camera according to an example Represents.
단계(410)에서, 모바일 단말(100) 또는 서버(120)는 카메라(260)에 의해 촬영된 대상지(150)의 이미지를 획득할 수 있다. 예컨대, 서버(120)는 무인 비행체(110)로부터 직접 또는 모바일 단말(100)을 통해 이러한 이미지(들)를 획득할 수 있다. In
단계(420)에서, 모바일 단말(100) 또는 서버(120)는 획득된 대상지(150)의 이미지(들)에 기반하여 제2 메시(610)를 생성할 수 있다. In step 420, the
제2 메시(610)는 예컨대, 도 6에서 도시된 것처럼, 대상지(150)의 이미지(들)에 기반하여, 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제2 메시(610)는 대상지(150)의 이미지에 포함된 위치 정보(좌표들)를 기준으로, 대상지(150)를 분할함으로써 생성될 수 있다. The
일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 이미지에 포함된 위치 정보(예컨대, 이미지의 중점 좌표)에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 이미지에 포함된 위치 정보에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표를 포함할 수 있다. 말하자면, 제2 메시(610)는 이미지에 포함된 위치 정보에 대응하는 좌표 및/또는 그것이 보간된 좌표(들)을 포함할 수 있다.For example, at least one of the vertices of the divided areas may be assigned coordinates corresponding to location information (eg, midpoint coordinates of the image) included in the image or coordinates obtained by interpolating location information included in the image. Also, the coordinates included in the divided area may include coordinates corresponding to location information included in the image or coordinates obtained by interpolating location information included in the image. That is to say, the
제2 메시(610)는 위치 정보를 포함하는 것일 뿐이고, 대상지(150)의 이미지의 이미지 정보는 포함하지 않는 것일 수 있다. The
이와 같이 생성된 제2 메시(610)는 전술된 제1 메시(600)와 정합됨으로써, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다. The
단계(430)에서, 모바일 단말(100) 또는 서버(120)는 제1 메시(600)에 포함된 대상지(150)에 대한 제1 위치 정보를 기준으로, 제2 메시(610)에 포함된 대상지에 대한 제2 위치 정보를 보정할 수 있다. 말하자면, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보에 대응하는 제2 메시(610)의 위치 정보로서의 상기 제2 위치 정보를 상기 제1 위치 정보를 기준으로 보정할 수 있다. 예컨대, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보로 상기 제2 위치 정보를 대체할 수 있다.In
예컨대, 상기 제1 위치 정보는 전술된 것처럼, 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 제2 지점들(510)의 각각에서의 대상지(150)의 좌표를 포함할 수 있고, 상기 제2 위치 정보는 대상지(150)의 이미지의 중점 좌표를 포함할 수 있다. 이 때, 모바일 단말(100) 또는 서버(120)는 상기 중점 좌표를 해당 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체함으로써, 상기 제2 위치 정보를 보정할 수 있다. For example, as described above, the first location information is the coordinates of the
이에 따라, 도 6의 제2 메시(610)와 같이 왜곡이 존재하는 메시가 제1 메시(600)와 같이 보정될 수 있다. Accordingly, a mesh in which distortion exists as in the
단계(440)에서, 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정의 결과와 대상지(150)의 이미지에 기반하여, 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다. 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정에 따라 위치 정보가 보정된 제2 메시에 포함된 위치 정보로, 카메라(260)에 의해 촬영된 대상지(150)의 이미지의 (위치 정보를 나타내는) 메타데이터를 수정할 수 있다. 모바일 단말(100) 또는 서버(120)는 이러한 메타데이터가 수정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다.In
한편, 전술된 것처럼, 측량 안테나(250)는, 위치 정보로서, 무인 비행체(110)의 높이 정보를 더 획득할 수 있다. 말하자면, (단계(320)에서의) 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들(510)의 각각에서 획득하는 대상지(150)의 위치 정보는 제2 지점들(510)의 각각에서의 평면 좌표 및 높이 좌표를 포함할 수 있다. 상기 높이 좌표는 상기 평면 좌표를 보정하기 위해 사용될 수 있다. 한편, 센서부(270)가 별도의 높이 센서를 포함하는 경우에는, 이러한 높이 센서에 의해 측정된 높이 정보가 상기 평면 좌표를 보정하기 위해 사용될 수 있다. Meanwhile, as described above, the
따라서, 제1 메시(600)에 포함된 대상지(150)에 대한 위치 정보인 상기 제1 위치 정보는, 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 제2 지점들(510)의 각각에서의 평면 좌표를 포함할 수 있다. 말하자면, 제1 메시(600)에 포함된 좌표는 해당 좌표와 연관하여 측정된 높이 값에 기반하여 보정된 것일 수 있다. Accordingly, the first position information, which is position information about the
예컨대, 모바일 단말(100)은 측량 안테나(250)가 위치 정보를 획득할 때의 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 해당 위치 정보가 포함하는 평면 좌표를 올바르게 보정할 수 있다.For example, the
이에 따라, 실시예에서는 보다 정확한 위치 정보가 포함된 제1 메시(600)가 생성될 수 있다. Accordingly, in an embodiment, the
높이 정보를 사용하여 평면 위치 정보를 보정하는 방법에 대해서는 후술될 도 7 및 8을 참조하여 더 자세하게 설명된다. A method of correcting plane position information using height information will be described in more detail with reference to FIGS. 7 and 8 to be described later.
이상, 도 1 내지 3 및 도 5를 참조하여 전술된 기술적 특징은 도 4 및 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 3 and 5 may be applied to FIGS. 4 and 6 as they are, a duplicate description will be omitted.
도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다. 7 and 8 are flowcharts illustrating a method of correcting location information included in an image of a target site acquired by a camera, according to an example.
도 7에서 도시된 것처럼, 무인 비행체(110)가 비행 중에 이미지(710)를 촬영하는 경우에는, 이미지의 중점 좌표가 왜곡될 수 있다. 즉, 이러한 이미지(710)의 중점 좌표는, 우측의 이미지(720)의 중점 좌표와 같이 보정되어야 할 필요가 있다. As shown in FIG. 7, when the unmanned
무인 비행체(110)는 카메라(260)를 탑재하기 위한 짐벌(810)을 포함할 수 있다. 짐벌(810)은 비행 시 무인 비행체(110)에 움직임이 발생하더라도, 카메라(260)의 시점(viewpoint)의 방향을 일정하게 유지하도록 하는 장치일 수 있다. 그러나, 저가의 짐벌을 사용하는 경우나, 고가의 짐벌을 사용하는 경우라도, 무인 비행체(110)의 움직임에 따른 왜곡에 대해 이미지의 중점 좌표의 보정을 수행할 필요가 있다. The unmanned
도 8에서 도시된 것처럼, 카메라(260)는 짐벌(810)에 장착될 수 있다. 이 때, 카메라(1260)를 사용하여 대상지(150)를 촬영할 경우, 획득된 이미지의 중점 좌표는 지점(805)와 같이 인식될 수 있다. As shown in FIG. 8, the
이러한 지점(805)에 해당하는 중점 좌표는 지점(810)으로 보정되어야 할 수 있다.The midpoint coordinates corresponding to this
모바일 단말(100) 또는 서버(120)는 이미지가 촬영된 때의 무인 비행체(110)의 높이 정보와, 이미지가 촬영된 때의 짐벌(810)의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 지점(805)의 평면 좌표를 지점(810)의 평면 좌표로 보정할 수 있다. The
무인 비행체(110)의 높이 정보는, 이미지가 촬영된 때에, 측량 안테나(250) 또는 센서부(270)가 포함하는 높이 센서에 의해 획득된 것일 수 있다. The height information of the unmanned
이와 같이, 높이 정보(높이 값)와, 지점(805)의 평면 좌표와, 짐벌(810)의 회전각 정보를 알면, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점(810)의 평면 좌표(즉, 보정된 중점 좌표)가 계산될 수 있다.In this way, if you know the height information (height value), the plane coordinates of the
상기 짐벌(810)의 회전각 정보는 메타데이터로서 이미지에 포함될 수 있다. The rotation angle information of the
예컨대, 제1 지점들(520)의 각각에서 촬영된 대상지(510)의 이미지는 이미지의 중점 좌표 및 이미지가 촬영된 때의 짐벌(810)의 회전각 정보를 포함할 수 있다. For example, the image of the
상기와 같은, 높이 정보에 따른 평면 위치 정보의 보정이 수행됨으로써, 제2 메시(610)가 포함하는 상기 제2 위치 정보는, 이미지의 중점 좌표를 해당 이미지가 포함하는 짐벌(810)의 회전각 정보와, 무인 비행체(110)의 높이 정보에 기반하여 보정함으로써 획득되는 해당 이미지의 보정된 중점 좌표를 포함할 수 있다. By performing the correction of the plane position information according to the height information as described above, the second position information included in the
이에 따라, 실시예에서는 보다 정확한 이미지(150)의 위치 정보(즉, 보정된 중점 좌표)가 포함된 제2 메시(610)가 생성될 수 있다. Accordingly, in the embodiment, the
마찬가지로, 전술된 것처럼, 측량 안테나(250)에 의해 획득된 위치 정보와 관련하여, (해당 위치 정보가 포함하는) 평면 좌표, (해당 위치 정보가 포함하는) 높이 정보 및 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점의 보정된 평면 좌표가 계산될 수 있다.Likewise, as described above, in relation to the location information obtained by the
이에 따라, 실시예에서는 보다 정확한 위치 정보(즉, 보정된 평면 좌표)가 포함된 제1 메시(600)가 생성될 수 있다. Accordingly, in the embodiment, the
이러한 높이 정보를 사용하여 위치 정보가 보정된 제1 메시(600) 및 제2 메시(610)를 사용함으로써, 결과적인 정합 이미지는 보다 정확한 위치 정보를 포함할 수 있게 된다.By using the
이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7 및 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 6 may be applied to FIGS. 7 and 8 as they are, duplicate descriptions will be omitted.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
Claims (10)
상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고,
상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계;
상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계;
상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계; 및
상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계
를 포함하고,
상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고,
상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는,
상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계
를 포함하고,
상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법.In the method of controlling an unmanned aerial vehicle comprising a camera, a second mobile terminal and a surveying antenna performed by a first mobile terminal,
The unmanned aerial vehicle is controlled to fly a preset path on the target site by control by the first mobile terminal,
While flying the path, controlling the unmanned aerial vehicle so that the camera captures the target location at each of a plurality of first points on the path to obtain an image of the target location;
While flying the route, controlling the unmanned aerial vehicle so that the second mobile terminal acquires location information of the target location at each of a plurality of second points on the route using the survey antenna;
Collecting location information of the target location from the second mobile terminal; And
Generating a first mesh associated with the target location based on the collected location information
Including,
The second points include at least two calibration points,
Controlling the unmanned aerial vehicle to obtain location information of the target location,
Controlling the unmanned aerial vehicle to stop the unmanned aerial vehicle for a predetermined time at each of the calibration points
Including,
The first mesh is matched with the image of the target site, and is used to correct positional information included in the image of the target site, a method of controlling an unmanned aerial vehicle.
상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함하는, 무인 비행체를 제어하는 방법.The method of claim 1,
The calibration points include a point corresponding to a vertex of the route on the route among the second points.
상기 제1 메시를 생성하는 단계는,
상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계; 및
상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계
를 포함하는, 무인 비행체를 제어하는 방법.The method of claim 1,
The step of generating the first mesh,
Converting the location information of the target site at each of the second points into coordinates of a spherical coordinate system based on each calibration point of the calibration points; And
Generating the first mesh by dividing the target area into a plurality of areas based on the transformed coordinates
Containing, a method of controlling an unmanned aerial vehicle.
상기 제1 모바일 단말 또는 외부 서버에서,
상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계;
상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계;
상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계; 및
상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계
를 더 포함하는, 무인 비행체를 제어하는 방법.The method of claim 1,
In the first mobile terminal or an external server,
Acquiring an image of the target site photographed by the camera;
Generating a second mesh based on the image of the target site;
Correcting second positional information on the target area included in the second mesh based on first positional information on the target area included in the first mesh; And
Generating a matching image for the target site based on the result of the correction and the image of the target site
A method for controlling an unmanned aerial vehicle further comprising a.
상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고,
상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고,
상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체되는, 무인 비행체를 제어하는 방법.The method of claim 4,
The first location information includes coordinates of the target site at each of the second points converted into coordinates of a spherical coordinate system based on each calibration point of the calibration points,
The second location information includes the central coordinates of the image of the target place,
In the step of correcting, the central point coordinates are replaced with coordinates included in the first location information corresponding to the central point coordinates.
상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고,
상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함하는, 무인 비행체를 제어하는 방법.The method of claim 4,
The location information of the target site acquired by the second mobile terminal at each of the plurality of second points on the route using the survey antenna includes plane coordinates and height coordinates at each of the second points,
The first location information includes plane coordinates at each of the second points obtained by correcting the plane coordinates based on the height coordinates.
상기 카메라는 짐벌에 장착되고,
상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고,
상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함하는, 무인 비행체를 제어하는 방법.The method of claim 4,
The camera is mounted on the gimbal,
The image of the target site photographed at each of the first points includes the central coordinate of the image and information on the rotation angle of the gimbal when the image is photographed,
The second position information includes the corrected central coordinates of the image obtained by correcting the central point coordinates based on the rotation angle information and the height information of the unmanned aerial vehicle.
상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고,
상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.The method of claim 1,
The second mobile terminal is operated as a client for the first mobile terminal that obtains the location information of the target location at each of the second points measured by the survey antenna and transmits it to the first mobile terminal, ,
The first mobile terminal is operated as a server for the second mobile terminal that obtains the location information of the target location from the second mobile terminal and processes the location information of the target location to generate the first mesh. How to control the vehicle.
상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고,
상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고,
상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함하는, 무인 비행체를 제어하는 방법.The method of claim 1,
The controlling of the unmanned aerial vehicle to acquire an image of the destination may include controlling the unmanned aerial vehicle to acquire an image of the destination by photographing the destination at each of the first points arranged at predetermined intervals on the path, and ,
The controlling of the unmanned aerial vehicle to obtain the location information of the target location comprises: at a predetermined time interval on the route, the second mobile terminal using the survey antenna to obtain the location information of the target location Control,
The second points include points on the path at which the location information of the target site is obtained at the predetermined time interval.
상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고,
상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들인, 무인 비행체를 제어하는 방법.
The method of claim 9,
The calibration points are preset points on the route,
Points other than the calibration points among the second points are points located between the calibration points on the path at which the location information of the target site is obtained at the predetermined time interval, a method of controlling an unmanned aerial vehicle .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200037553A KR102204564B1 (en) | 2020-03-27 | 2020-03-27 | Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200037553A KR102204564B1 (en) | 2020-03-27 | 2020-03-27 | Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102204564B1 true KR102204564B1 (en) | 2021-01-19 |
Family
ID=74237219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200037553A KR102204564B1 (en) | 2020-03-27 | 2020-03-27 | Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102204564B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006027331A (en) * | 2004-07-13 | 2006-02-02 | Hiroboo Kk | Method for collecting aerial image information by utilizing unmanned flying object |
JP2006507483A (en) * | 2002-09-20 | 2006-03-02 | エム7 ビジュアル インテリジェンス,エルピー | Data collection and processing system by mobile body |
JP6055274B2 (en) * | 2012-10-31 | 2016-12-27 | 株式会社トプコン | Aerial photograph measuring method and aerial photograph measuring system |
KR101743626B1 (en) * | 2017-03-07 | 2017-06-08 | 테이즈엔지니어링(주) | Stream surveying system using UAV |
JP6250228B2 (en) * | 2015-10-27 | 2017-12-20 | 三菱電機株式会社 | Image photographing system for shape measurement of structure, remote control device, on-board control device, program and recording medium |
-
2020
- 2020-03-27 KR KR1020200037553A patent/KR102204564B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006507483A (en) * | 2002-09-20 | 2006-03-02 | エム7 ビジュアル インテリジェンス,エルピー | Data collection and processing system by mobile body |
JP2006027331A (en) * | 2004-07-13 | 2006-02-02 | Hiroboo Kk | Method for collecting aerial image information by utilizing unmanned flying object |
JP6055274B2 (en) * | 2012-10-31 | 2016-12-27 | 株式会社トプコン | Aerial photograph measuring method and aerial photograph measuring system |
JP6250228B2 (en) * | 2015-10-27 | 2017-12-20 | 三菱電機株式会社 | Image photographing system for shape measurement of structure, remote control device, on-board control device, program and recording medium |
KR101743626B1 (en) * | 2017-03-07 | 2017-06-08 | 테이즈엔지니어링(주) | Stream surveying system using UAV |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10996055B2 (en) | Integrated aerial photogrammetry surveys | |
KR102129408B1 (en) | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map | |
KR102003187B1 (en) | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle | |
US10089766B2 (en) | Method and system of stitching aerial data using information from previous aerial images | |
US20200004272A1 (en) | System and method for intelligent aerial inspection | |
JP7251474B2 (en) | Information processing device, information processing method, information processing program, image processing device, and image processing system | |
CN113345028B (en) | Method and equipment for determining target coordinate transformation information | |
KR20200064542A (en) | Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof | |
JP6138326B1 (en) | MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE | |
WO2019100188A1 (en) | Method for planning operation route of unmanned aerial vehicle and ground end device | |
KR101345554B1 (en) | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data | |
CN103874193A (en) | Method and system for positioning mobile terminal | |
CN110703805B (en) | Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium | |
KR102075028B1 (en) | Unmanned High-speed Flying Precision Position Image Acquisition Device and Accurate Position Acquisition Method Using the same | |
JPWO2018193574A1 (en) | Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium | |
JP6289750B1 (en) | Mobile object, mobile object control method, mobile object control system, and mobile object control program | |
CN115439531A (en) | Method and equipment for acquiring target space position information of target object | |
US20200217665A1 (en) | Mobile platform, image capture path generation method, program, and recording medium | |
JP2018146524A (en) | Survey system | |
KR20210102889A (en) | Planning method, apparatus, control terminal and storage medium of survey and mapping sample points | |
JP7220784B2 (en) | Survey sampling point planning method, device, control terminal and storage medium | |
CN115439528A (en) | Method and equipment for acquiring image position information of target object | |
US20220113421A1 (en) | Online point cloud processing of lidar and camera data | |
KR102204564B1 (en) | Method for controlling unmanned air vehicle acquiring location information using survey antenna and method for generating location-matched image based on location information acquired from unmanned air vehicle | |
US11566894B2 (en) | Systems and methods for generating a two-dimensional map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |