KR102154950B1 - Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image - Google Patents

Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image Download PDF

Info

Publication number
KR102154950B1
KR102154950B1 KR1020200011269A KR20200011269A KR102154950B1 KR 102154950 B1 KR102154950 B1 KR 102154950B1 KR 1020200011269 A KR1020200011269 A KR 1020200011269A KR 20200011269 A KR20200011269 A KR 20200011269A KR 102154950 B1 KR102154950 B1 KR 102154950B1
Authority
KR
South Korea
Prior art keywords
image
map
matching
coordinates
pixel
Prior art date
Application number
KR1020200011269A
Other languages
Korean (ko)
Inventor
이홍준
Original Assignee
주식회사 디지털커브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디지털커브 filed Critical 주식회사 디지털커브
Priority to KR1020200011269A priority Critical patent/KR102154950B1/en
Application granted granted Critical
Publication of KR102154950B1 publication Critical patent/KR102154950B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Provided is a method for matching an image of a target area photographed by an unmanned aerial vehicle to a map, a drawing, or a satellite image performed by a mobile terminal. The method obtains an image photographed by an unmanned aerial vehicle, calculates coordinates corresponding to boundary points of the image based on pixel information and the center coordinates of the image, and matches the calculated coordinates to the coordinates of the map, drawing, or satellite image to generate a layer corresponding to the matched image.

Description

무인 비행체에 의해 촬영된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 장치{METHOD AND APPARATUS FOR MATCHING IMAGE CAPTURED BY UNMANNED AIR VEHICLE WITH MAP, CADASTER, OR SATELLITE IMAGE}A method and apparatus for matching an image captured by an unmanned aerial vehicle to a map, drawing, or satellite photo {METHOD AND APPARATUS FOR MATCHING IMAGE CAPTURED BY UNMANNED AIR VEHICLE WITH MAP, CADASTER, OR SATELLITE IMAGE}

실시예들은 무인 비행체에 의해 촬영된 대상지의 이미지(들)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 관한 것으로, 특히, 촬영된 이미지(들)를 정합하는 복잡한 프로세스를 수행하지 않고, 이미지를 지오 처리하는 것을 통해 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 관한 것이다. The embodiments relate to a method of matching the image(s) of a target area photographed by an unmanned aerial vehicle to a map, a drawing or a satellite photograph, and in particular, without performing a complicated process of matching the photographed image(s), an image It relates to a method of matching an image to a map, drawing or satellite image through geoprocessing.

측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다. 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. Surveying is an indispensable task in constructing buildings or facilities. In surveying a target site (eg, a commercial site), there are cases in which a person may not be able to directly measure at least a part of the survey target site due to environmental or geographic factors of the survey target site. In this case, a survey may be made on the survey target using an unmanned aerial vehicle such as a drone. By utilizing an image (photo) of a survey target taken using an unmanned aerial vehicle for surveying, surveying may be possible even in an area that cannot be directly surveyed by a person on the survey target.

무인 비행체를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체에 의해 촬영된 이미지들은 이미지 각각 간의, 예컨대, 픽셀 정합과 같은, 복잡한 정합 프로세스를 통해 하나의 이미지(정합 이미지)로서 정합된다. 정합 이미지는 지도, 도면 또는 위성 사진에 대해 매칭되어 활용된다. In the case of performing surveying using an unmanned aerial vehicle, the images captured by the unmanned aerial vehicle are matched between each of the images, for example, as a single image (matched image) through a complex matching process, such as pixel matching. The matched image is matched and used for maps, drawings or satellite photos.

촬영된 이미지들을 정합하는 이러한 정합 프로세스는 일반적으로 많은 연산을 요구하고, 이러한 연산은 촬영된 이미지들의 수가 증가하거나 이미지의 해상도가 높아질수록 현저하게 증가하게 된다. 촬영된 이미지들에 대한 정합 프로세스는 촬영된 이미지에 대해 실시간으로 수행되거나 모바일 단말을 통해 수행될 수는 없으며, 고성능의 PC나 기타 컴퓨팅 장치를 통해서만 많은 시간을 소요하여 수행될 수 있다. This matching process of matching the captured images generally requires a lot of operations, and this operation increases significantly as the number of captured images increases or the resolution of the image increases. The matching process for the captured images cannot be performed in real time or through a mobile terminal on the captured images, and may be performed only through a high-performance PC or other computing device, taking a long time.

따라서, 고성능의 PC를 사용하지 않고, 모바일 단말을 사용하는 것만으로도 단시간에 촬영된 이미지들을 지오 처리하여 이미지로부터 정확한 위치 정보를 획득하고, 지오 처리된 이미지를 레이어화하여 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법이 요구된다. 또한, 레이어화된 이미지를 공공 지도 또는 외부 지도(상용 지도)에 매칭시켜 대상지에 대한 측량 데이터를 손쉽게 획득할 수 있도록 하는 방법이 요구된다.Therefore, without using a high-performance PC, geo-processing images captured in a short time by using a mobile terminal to obtain accurate location information from the images, layering the geo-processed images to map, drawings, or satellite photos A method of matching against is required. In addition, there is a need for a method of matching a layered image to a public map or an external map (commercial map) to easily obtain survey data on a target site.

한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Patent Registration No. 10-1532582 (registration date June 24, 2015) relates to a method of processing cadastral survey data, and each parcel is for the purpose of registering land for land study or restoring the boundary registered for cadastral study on the surface. Disclosed is a method for processing cadastral survey data that enables efficient and systematic maintenance and management of cadastral survey data obtained when setting a reference point for surveying the boundary or area of a site.

상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only, may include content that does not form part of the prior art, and may not include what the prior art may present to a person skilled in the art.

일 실시예는, 모바일 단말에 의해 수행되는 방법으로서, 무인 비행체에 의해 촬영된 이미지를 획득하고, 해당 이미지의 픽셀 정보 및 중점 좌표에 기반하여, 이미지의 경계점들에 대응하는 좌표들을 계산하고, 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시켜 매칭된 이미지에 대응하는 레이어를 생성함으로써, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 제공할 수 있다. In one embodiment, as a method performed by a mobile terminal, an image photographed by an unmanned aerial vehicle is obtained, based on pixel information and center coordinates of the image, coordinates corresponding to boundary points of the image are calculated, and the calculation By creating a layer corresponding to the matched image by matching the coordinates with the coordinates of the map, drawing, or satellite photo, we will provide a method of matching the image of the target area captured by the unmanned aerial vehicle with a map, drawing, or satellite photo. I can.

일 측면에 있어서, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 있어서, 무인 비행체에 의해 촬영된 이미지를 획득하는 단계, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하는 단계, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계 및 상기 매칭된 이미지에 대응하는 레이어를 생성하는 단계를 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법이 제공된다. In one aspect, in a method for matching an image of a target site captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph, the method comprising: acquiring an image captured by the unmanned aerial vehicle, the image Acquiring a central point coordinate corresponding to the central point of the image, calculating coordinates corresponding to boundary points including vertices of the image, based on the pixel information of the image and the central point coordinate, the calculated coordinates and the map , By matching coordinates of a drawing or a satellite picture, matching the image with the map, drawing or satellite picture, and generating a layer corresponding to the matched image, the image as a map, drawing or satellite picture A method of matching against is provided.

상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고, 상기 경계점들에 대응하는 좌표들을 계산하는 단계는, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하는 단계 및 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하는 단계를 포함할 수 있다. The pixel information includes information on an area of one pixel of the image indicated in the coordinate system of the map, drawing, or satellite photo, and calculating coordinates corresponding to the boundary points may include the Computing a pixel distance from a pixel of the image to a pixel corresponding to each boundary point of the boundary points, and calculating the coordinates of each boundary point based on the midpoint coordinate, the area information, and the calculated pixel distance. Can include.

상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수로 분할하는 지점들의 각 지점에 대응하는 좌표를 계산하는 단계를 더 포함하고, 상기 각 지점에 대응하는 좌표를 계산하는 단계는, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하는 단계 및 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하는 단계를 포함하고, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. The method of matching the image with a map, a drawing, or a satellite photo further includes calculating coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number, wherein each The calculating of the coordinates corresponding to the point includes: calculating a pixel distance from the pixel of the image corresponding to the central point to the pixel of the image corresponding to the point, and information on the central point coordinate and the area And calculating coordinates of each point based on a pixel distance to a pixel of the image corresponding to each point, wherein the step of matching the image with the map, drawing, or satellite image comprises: the each point By matching the coordinates of the map, the map, or the satellite picture, the image may be matched with the map, drawing, or satellite picture.

상기 이미지를 획득하는 단계는, 상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들을 획득하고, 상기 중점 좌표를 획득하는 단계, 상기 경계점들에 대응하는 좌표들을 계산하는 단계, 및 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는 상기 복수의 이미지들 각각에 대해 수행될 수 있다. The obtaining of the image includes obtaining a plurality of images photographed by the unmanned aerial vehicle flying a path including a plurality of waypoints on the target site, obtaining the central coordinates, corresponding to the boundary points Calculating the coordinates, and matching the image with the map, drawing, or satellite image may be performed for each of the plurality of images.

상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고, 상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들은 서버로 전달되어 정합되고, 상기 정합은 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 이미지를 생성하는 것이고, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합은, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행될 수 있다.The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, and each of the plurality of images is taken of a part of the target site, and according to the control of the mobile terminal, the plurality of images are sent to the server. Transmitted and matched, and the matching is to generate one image by pixel matching the plurality of images, and the pixel matching for a first image and a second image adjacent to the first image among the plurality of images is , The pixels of the first image and the remaining portions of the overlapping portions of the first image and the second image except for a portion of the performance of the mobile terminal or a ratio preset by the server or the user of the mobile terminal. This can be done by comparing the pixels of the second image.

상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 이미지에 대응하여 생성된 레이어를 상기 지도, 도면 또는 위성 사진 상에서 중첩하여 표시하는 단계를 더 포함할 수 있다. The method of matching the image to a map, a drawing, or a satellite photograph may further include displaying a layer generated corresponding to the image by overlapping it on the map, drawing, or satellite photograph.

상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 표시된 레이어의 적어도 2개의 포인트들에 대한 상기 모바일 단말의 사용자로부터의 선택을 수신하는 단계 및 상기 선택에 의해 생성된 상기 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산하는 단계를 더 포함할 수 있다. The method of matching the image to a map, a drawing, or a satellite photograph includes receiving a selection from a user of the mobile terminal for at least two points of the displayed layer, and of the figure on the layer generated by the selection. It may further include calculating at least one of the length and the width.

다른 일 측면에 있어서, 모바일 단말에 의해 구현되는 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 무인 비행체에 의해 촬영된 이미지를 획득하고, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하고, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하고, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치가 제공된다. In another aspect, in an apparatus for matching an image of a target site captured by an unmanned aerial vehicle implemented by a mobile terminal with a map, drawing, or satellite photograph, at least one processor implemented to execute a computer-readable command Including, wherein the at least one processor, acquires an image photographed by the unmanned aerial vehicle, acquires a central point coordinates corresponding to the central point of the image, and based on the pixel information and the central point coordinates of the image, the image By calculating coordinates corresponding to boundary points including the vertices of the map, and matching the calculated coordinates with the coordinates of a map, a drawing or a satellite photograph, the image is matched with the map, drawing, or satellite image. , A device for matching against a drawing or a satellite image is provided.

또 다른 일 측면에 있어서, 상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들이 획득되고, 상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고, 상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들을 정합하는 서버를 더 포함하고, 상기 서버는 상기 정합을 통해 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 이미지를 생성하고, 상기 서버는, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합을, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 시스템이 제공된다. In another aspect, a plurality of images photographed by the unmanned aerial vehicle flying on a path including a plurality of waypoints on the target site are acquired, and the plurality of images have a predetermined photo redundancy rate. It is photographed, and each of the plurality of images is a photograph of a part of the target area, further comprising a server for matching the plurality of images according to the control of the mobile terminal, the server through the matching An image is generated by pixel matching images of, and the server performs the pixel matching of the first image among the plurality of images and a second image adjacent to the first image, the first image and the The pixels of the first image and the pixels of the second image are selected only for the remaining portions of the overlapping portion of the second image, excluding the performance of the mobile terminal or a portion of the ratio preset by the server or the user of the mobile terminal. A system is provided for matching images to maps, drawings or satellite photographs, performing by comparing.

무인 비행체에 의해 촬영된 대상지의 이미지들에 대해, 복잡한 연산/많은 소요 시간을 요구하는 픽셀 정합을 수행하지 않고, 각각의 이미지를 지오 처리하여 위치 정보를 획득하고, 지오 처리된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시켜, 지도, 도면 또는 위성 사진에 매칭되는 레이어를 생성할 수 있다. For the images of the target area captured by the unmanned aerial vehicle, without performing complex calculations/pixel matching that requires a lot of time required, each image is geo-processed to obtain location information, and the geo-processed image is mapped to a drawing. Alternatively, a layer matching a map, a map, or a satellite image may be generated by matching the satellite image.

따라서, 무인 비행체에 의해 촬영된 이미지들에 대한 외부의 고성능의 PC에서의 작업 없이 해당 이미지들을 획득한 모바일 단말에서 바로, 지도, 도면 또는 위성 사진에 매칭되는 레이어를 생성할 수 있고, 사용자는 생성된 레이어를 통해 무인 비행체로부터 촬영된 이미지와 지도, 도면 또는 위성 사진을 용이하게 비교할 수 있다.Therefore, it is possible to create a layer matching the map, drawing, or satellite photo directly from the mobile terminal that acquired the images without working on an external high-performance PC for the images captured by the unmanned aerial vehicle, and the user can create It is possible to easily compare images taken from unmanned aerial vehicles with maps, drawings or satellite photos through the created layers.

도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 모바일 단말과, 모바일 단말과 통신하는 서버 및 무인 비행체를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른, 이미지의 내부 지점들/경계점들의 좌표를 계산하는 방법을 나타내는 흐름도이다.
도 5a는 일 예에 따른, 이미지들을 픽셀 정합하는 방법을 나타내고, 도 5b는 일 예에 따른, 이미지들을 간편 정합하는 방법을 나타낸다.
도 5c는 일 예에 따른, 이미지에 대한 정합 프로세스 없이, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타낸다.
도 6은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지에 기반한 레이어로부터 측량 데이터를 획득하는 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 측량 데이터를 획득하는 방법을 나타낸다.
도 9는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어를 공공 지도 상에 중첩하여 표시하는 방법을 나타낸다.
도 10는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어와 공공 지도가 중첩된 상태에서, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다.
도 11a 및 11b는 일 예에 따른, 침해지 및 경계선에 대한 측량 데이터를 획득하는 방법을 나타낸다.
도 12는 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 산불 영역에 대한 측량 데이터를 획득하는 방법을 나타낸다.
1 illustrates a method of processing target image images captured by an unmanned aerial vehicle, according to an exemplary embodiment.
FIG. 2 is a block diagram illustrating a mobile terminal processing target image images captured by an unmanned aerial vehicle, a server communicating with the mobile terminal, and an unmanned aerial vehicle according to an exemplary embodiment.
3 is a flowchart illustrating a method of matching an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph according to an exemplary embodiment.
4 is a flowchart illustrating a method of calculating coordinates of internal points/boundary points of an image, according to an exemplary embodiment.
FIG. 5A illustrates a method of pixel matching images according to an example, and FIG. 5B illustrates a method of simply matching images according to an example.
5C illustrates a method of matching an image to a map, a drawing or a satellite photograph without a matching process for the image, according to an example.
6 is a flowchart illustrating a method of acquiring survey data from a layer based on an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, according to an exemplary embodiment.
7 is a flowchart illustrating a method of obtaining survey data according to a selection from a user, according to an example.
8 illustrates a method of obtaining survey data by marking and displaying a boundary line over time, according to an example.
9 illustrates a method of superimposing and displaying a layer of an image of an object photographed by an unmanned aerial vehicle on a public map, according to an example.
10 illustrates a method of acquiring survey data for an infringing place in a state in which a layer of an image of a target site captured by an unmanned aerial vehicle and a public map are overlapped, according to an example.
11A and 11B illustrate a method of obtaining survey data for an infringement area and a boundary line, according to an example.
12 illustrates a method of obtaining survey data for a forest fire area by marking and displaying a boundary line over time, according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.

도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 방법을 나타낸다. 1 illustrates a method of processing target image images captured by an unmanned aerial vehicle, according to an exemplary embodiment.

도 1을 참조하여, 무인 비행체(110)를 사용하여 측량 등을 수행하기 위해 대상지(150)를 촬영하는 경우에 있어서, 무인 비행체(110)에 의해 촬영된 대상지(150)(예컨대, 측량 대상지)의 이미지들(115)을 처리하는 방법에 대해 설명한다. Referring to FIG. 1, in the case of photographing the target site 150 to perform a survey using the unmanned aerial vehicle 110, the target site 150 photographed by the unmanned aerial vehicle 110 (eg, a survey target site) A method of processing the images 115 of will be described.

무인 비행체(110)로부터의 이미지들(115)은 소정의 정합 프로세스에 의해 정합 이미지로서 변환되거나(또한, 변환 후 지도, 도면 또는 위성 사진에 대해 매칭되거나), 각 이미지(115)에 대한 지오 처리를 통해 지도, 도면 또는 위성 사진에 대해 매칭될 수 있다. The images 115 from the unmanned aerial vehicle 110 are converted as a matching image by a predetermined matching process (also matched against a map, drawing, or satellite image after conversion), or geo-processed for each image 115 It can be matched against maps, drawings or satellite photos.

대상지(150)는 상업지, 건축 예정지 등을 비롯한 측량의 대상(또는, 무인 비행체(110)의 촬영의 대상)이 되는 구역(토지의 구역)을 나타낼 수 있다. The target site 150 may represent an area (area of land) that is a target for surveying (or an object of photographing of the unmanned aerial vehicle 110) including a commercial site, a planned construction site, and the like.

도시된 무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 대상지(150) 상의 소정의 경로를 비행하면서 대상지(150)를 촬영할 수 있다. 촬영된 대상지(150)의 복수의 이미지들(115)은 모바일 단말(100) 및/또는 서버(120)로 전달될 수 있고, 모바일 단말(100) 및/또는 서버(120)는 획득된 복수의 이미지들(115)을 처리할 수 있다. The illustrated unmanned aerial vehicle 110 may be, for example, a drone. The unmanned aerial vehicle 110 may photograph the target site 150 while flying a predetermined path on the target site 150. The plurality of images 115 of the captured target site 150 may be transmitted to the mobile terminal 100 and/or the server 120, and the mobile terminal 100 and/or the server 120 Images 115 can be processed.

서버(120)는 무인 비행체(110)로부터 이미지들(115)을 직접 획득하거나, 모바일 단말(100)을 경유하여 획득할 수 있다. The server 120 may directly obtain the images 115 from the unmanned aerial vehicle 110 or may obtain the images 115 via the mobile terminal 100.

실시예에서는, 모바일 단말(100)은 무인 비행체(110)로부터 이미지들(115)을 획득할 수 있고, 획득된 이미지들(115)의 각각에 대해 지오 처리를 수행할 수 있다. "지오 처리"는 각 이미지(115)를 분석하여 해당 이미지(115)로부터 위치 정보(좌표)를 획득하는 프로세스일 수 있다. 모바일 단말(100)은 이미지들(115)의 각각에 대해 지오 처리를 통해 위치 정보를 획득할 수 있고, 이러한 지오 처리된 이미지들(115)을 지도, 도면 또는 위성 사진에 대해 매칭시킬 수 있다.In an embodiment, the mobile terminal 100 may acquire images 115 from the unmanned aerial vehicle 110 and may perform geo-processing on each of the acquired images 115. “Geo-processing” may be a process of analyzing each image 115 and obtaining location information (coordinates) from the image 115. The mobile terminal 100 may obtain location information for each of the images 115 through geo-processing, and may match the geo-processed images 115 with a map, a drawing, or a satellite photo.

"지도"는 외부 지도 및/또는 공공 지도를 포함할 수 있다. 외부 지도는 지도 서비스 제공 어플리케이션과 같은 외부 어플리케이션으로부터 제공되는 지도(예컨대, 다음(DAUM) 지도, 구글(Google) 지도 또는 네이버(NAVER) 지도 등)일 수 있다. 공공 지도는 공공 지도는 지적도, 용도지적도, 용도구역도, 택지개발지구도, 행정구역도, 수자원 관리도, 국가교통정보도 및 개발행위 허가도 중 적어도 하나를 포함할 수 있다.“Map” may include external maps and/or public maps. The external map may be a map provided from an external application such as a map service providing application (eg, a DAUM map, a Google map, or a NAVER map). Public maps Public maps may include at least one of a cadastral map, a use cadastral map, a use zone map, a housing site development district map, an administrative district map, a water resource management map, a national traffic information map, and a development permission map.

"도면"은 건축물 또는 시설물의 설계 및 건축을 위한 설계 도면일 수 있다. 예컨대, 도면은 dxf 형식의 도면이거나, 기타 다른 형식의 도면일 수 있다."Drawing" may be a design drawing for design and construction of a building or facility. For example, the drawing may be a drawing in dxf format, or a drawing in another format.

"위성 사진"은 위성에 의해 촬영된 이미지일 수 있다. 위성 사진은 지도 서비스 제공 어플리케이션을 통해 제공되는 것일 수 있다.The "satellite photograph" may be an image taken by a satellite. The satellite picture may be provided through a map service providing application.

이와 같은, 전술한 지도, 도면 또는 위성 사진은 좌표(좌표 정보)를 포함할 수 있다. Such, the above-described map, drawing, or satellite picture may include coordinates (coordinate information).

모바일 단말(100)은 지오 처리된 이미지들(115)의 좌표와 지도, 도면 또는 위성 사진은 좌표를 매칭시킴으로써, 이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시킬 수 있다. The mobile terminal 100 may match the coordinates of the geo-processed images 115 with the coordinates of a map, a drawing, or a satellite photograph to match the images 115 with a map, a drawing, or a satellite photograph.

따라서, 실시예에서는, 서버(120)나 기타 고성능 PC에서의 이미지들(115)에 대한 정합 프로세스의 수행 없이도 이미지들(115)을 지도, 도면 또는 위성 사진에 대해 매칭시킬 수 있다. 이로서, 모바일 단말(100)의 사용자는 무인 비행체(110)에 의해 촬영된 현재의 대상지(150)에 대한 이미지들(115)과 지도, 도면 또는 위성 사진을 직관적으로 비교할 수 있다. Accordingly, in an embodiment, the images 115 may be matched against a map, drawing, or satellite image without performing a matching process on the images 115 in the server 120 or other high-performance PC. As a result, the user of the mobile terminal 100 can intuitively compare the images 115 of the current target site 150 captured by the unmanned aerial vehicle 110 with a map, a drawing, or a satellite photo.

한편, 서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들(115)을 획득하여 이미지들(115)을 처리할 수 있다. 서버(120)는 획득된 이미지들(115)을 정합(예컨대, 픽셀 정합)함으로써 정합 이미지를 생성할 수 있다.Meanwhile, the server 120 may process the images 115 by acquiring the images 115 through the mobile terminal 100 or directly from the unmanned aerial vehicle 110. The server 120 may generate a matched image by matching (eg, pixel matching) the acquired images 115.

이러한 서버(120)에 의한 이미지들(115)의 처리는 모바일 단말(100)에 의한 제어 또는 요청에 의해 수행될 수 있다. The processing of the images 115 by the server 120 may be performed by control or request by the mobile terminal 100.

이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시키는 구체적인 방법과, 서버(120)에 의한 정합 프로세스의 상세한 내용에 대해서는 후술될 도 2 내지 도 5c를 참조하여 더 자세하게 설명한다. A detailed method of matching the images 115 with a map, a drawing, or a satellite photograph, and details of the matching process by the server 120 will be described in more detail with reference to FIGS. 2 to 5C to be described later.

도 2는 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 모바일 단말과, 모바일 단말과 통신하는 서버 및 무인 비행체를 나타내는 블록도이다. FIG. 2 is a block diagram illustrating a mobile terminal processing target image images captured by an unmanned aerial vehicle, a server communicating with the mobile terminal, and an unmanned aerial vehicle according to an exemplary embodiment.

도 2를 참조하여, 무인 비행체(110), 서버(120) 및 모바일 단말(100)의 구체적인 구성들이 설명된다. With reference to FIG. 2, specific configurations of the unmanned aerial vehicle 110, the server 120, and the mobile terminal 100 are described.

도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 대상지(150)를 비행하여 대상지(150)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 일례로, 무인 비행체(110)는 플러그인 DGPS 드론 또는 플러그인 RTK 드론일 수 있다. As described above with reference to FIG. 1, the unmanned aerial vehicle 110 is a device for photographing the target location 150 by flying the target location 150, and may be, for example, a drone, an unmanned aerial vehicle, or other automatic or radio-controlled vehicle. . For example, the unmanned aerial vehicle 110 may be a plug-in DGPS drone or a plug-in RTK drone.

무인 비행체(110)는 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말로서 모바일 단말(100)일 수 있음)을 통해 소정의 경로를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 대상지(150)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. The unmanned aerial vehicle 110 may fly a predetermined path including a plurality of waypoints on the target site 150. The predetermined path may be set by the user of the unmanned aerial vehicle 110. For example, the user of the unmanned aerial vehicle 110 may be a user terminal associated with the unmanned aerial vehicle 110 (for example, a smart phone or a controller or a mobile terminal 100 as a terminal in which an application related to the control of the unmanned aerial vehicle 110 is installed. ) To set a predetermined route. The user of the unmanned aerial vehicle 110 can designate a plurality of way points on the map representing the target site 150 through the user terminal associated with the unmanned aerial vehicle 110, and the path through which the unmanned aerial vehicle will fly through the specified way points Can be set as

무인 비행체(110)는 경로 상의 각 웨이 포인트에서 대상지(150)를 촬영할 수 있다. 이 때, 촬영된 이미지(115)의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The unmanned aerial vehicle 110 may photograph the target site 150 at each waypoint on the route. At this time, the center of the captured image 115 may be a waypoint. Alternatively, a location at which the unmanned aerial vehicle 110 photographs the target site 150 may be a location separate from the waypoint.

웨이 포인트는 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표)는 기지의 값일 수 있다. 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 촬영된 이미지(115)의 중점이 될 수 있다. 촬영된 이미지(115)의 중점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a location designated on the map, and its location information (eg, coordinates) may be a known value. The position at which the unmanned aerial vehicle 110 photographs the target site 150 may be the center of the photographed image 115. The midpoint of the captured image 115 may exist on a path through which the unmanned aerial vehicle 110 flies, and the location information (eg, coordinate value) may be a known value.

무인 비행체(110)는 통신부, 카메라, 프로세서 및 저장부를 포함할 수 있다. The unmanned aerial vehicle 110 may include a communication unit, a camera, a processor, and a storage unit.

통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be a configuration for the unmanned aerial vehicle 110 to communicate with other devices such as the mobile terminal 100 and the server 120. That is to say, the communication unit is a configuration for the unmanned aerial vehicle 110 to transmit/receive data and/or information wirelessly or wired to other devices such as the mobile terminal 100 and the server 120, and the unmanned aerial vehicle 110 It may be a hardware module such as a network interface card, a network interface chip, and a networking interface port, or a software module such as a network device driver or a networking program.

무인 비행체(110)는 통신부를 통해 모바일 단말(100) 또는 서버(120)와 통신하거나, 이들에게 촬영된 이미지들(115)을 전송할 수 있다.The unmanned aerial vehicle 110 may communicate with the mobile terminal 100 or the server 120 through a communication unit, or may transmit captured images 115 to them.

프로세서는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. The processor may manage the components of the unmanned aerial vehicle 110 and may be a configuration for controlling the flight of the unmanned aerial vehicle 110 in a predetermined path. For example, the processor may perform processing and calculation of data necessary to control the flight of the unmanned aerial vehicle 110. The processor may be at least one processor of the unmanned aerial vehicle 110 or at least one core within the processor.

카메라는 비행 중에 대상지(150)를 촬영하기 위한 장치일 수 있다. 카메라는 대상지(150)를 촬영함으로써 이미지(115)(이미지 파일)을 생성할 수 있다. 카메라는 CCD를 포함할 수 있고, 이미지(115)의 해상도는 CCD의 픽셀 크기(화소 크기)에 의해 결정될 수 있다. The camera may be a device for photographing the target site 150 during flight. The camera may generate an image 115 (image file) by photographing the target site 150. The camera may include a CCD, and the resolution of the image 115 may be determined by the pixel size (pixel size) of the CCD.

저장부는 카메라에 의한 촬영에 의해 생성된 이미지(115)를 저장하기 위한 스토리지를 포함할 수 있다. 저장부는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The storage unit may include storage for storing the image 115 generated by photographing by the camera. The storage unit may be any internal memory of the unmanned aerial vehicle 110 or an external memory device such as a flash memory or an SD card mounted on the unmanned aerial vehicle 110. In addition, the storage unit may store information related to a predetermined route for flight of the unmanned aerial vehicle 110 (eg, information on a map and a way point).

모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)를 촬영한 이미지들(115)을 획득하고, 획득된 이미지들(115)을 지오 처리함으로써 지오 처리된 이미지들(115)을 대상지(150)에 대응하는 지도, 도면 또는 위성 사진에 대해 매칭시키기 위한 장치일 수 있다. The mobile terminal 100 acquires images 115 photographing the target site 150 from the unmanned aerial vehicle 110, and geo-processes the acquired images 115 to transfer the geo-processed images 115 to the target site ( 150) may be a device for matching a map, a drawing, or a satellite photo.

또한, 모바일 단말(100)은 공공 지도 또는 외부 지도에 매칭되는 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어를 로딩하고, 해당 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시하고, 표시된 레이어에 대한 사용자로부터의 선택에 기반하여 측량 데이터를 획득하기 위한 장치일 수 있다. In addition, the mobile terminal 100 loads a layer based on the image 115 of the target site 150 photographed by the unmanned aerial vehicle 110 matching a public map or an external map, and loads the layer on a public map or an external map. It may be a device for overlapping display and acquiring survey data based on a user's selection for the displayed layer.

모바일 단말(100)은 무인 비행체(110)로부터 획득된 이미지들(115)을 분석 및 처리하기 위한 컴퓨팅 장치일 수 있다. 모바일 단말(100)은 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 모바일 단말(100)은 무인 비행체(110)과 통신하며 무인 비행체(110)를 제어하는 단말일 수 있다.The mobile terminal 100 may be a computing device for analyzing and processing the images 115 acquired from the unmanned aerial vehicle 110. The mobile terminal 100 may be, for example, a terminal used by a user such as a smart phone, a tablet, an Internet of Things device, or a wearable computer. The mobile terminal 100 may be a terminal that communicates with the unmanned aerial vehicle 110 and controls the unmanned aerial vehicle 110.

모바일 단말(100)은 통신부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The mobile terminal 100 may include a communication unit 210, a processor 220, and a display unit 230.

통신부(210)는 무인 비행체(110)에 의해 촬영된 이미지들(115)을 획득하기 위해 무인 비행체(110)와 통신하는 구성이거나, 무인 비행체(110)의 저장부와 접속하는 구성일 수 있다. 예컨대, 통신부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지들(115)을 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지들(115)을 획득할 수 있다. The communication unit 210 may be a configuration that communicates with the unmanned aerial vehicle 110 to obtain images 115 photographed by the unmanned aerial vehicle 110 or a configuration that connects with the storage of the unmanned aerial vehicle 110. For example, the communication unit 210 may obtain the images 115 from the unmanned aerial vehicle 110 through wire or wirelessly, or acquire the images 115 through an external memory device of the unmanned aerial vehicle 110.

또한, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.In addition, the communication unit 210 may be a configuration for the mobile terminal 100 to communicate with other devices such as the unmanned aerial vehicle 110 and the server 120. That is to say, the communication unit 210 is a configuration for the mobile terminal 100 to transmit/receive data and/or information wirelessly or wiredly to other devices such as the unmanned aerial vehicle 110 and the server 120, and It may be a hardware module such as a network interface card of 100, a network interface chip, and a networking interface port, or a software module such as a network device driver or a networking program.

프로세서(220)는 모바일 단말(100)의 구성 요소들을 관리할 수 있고, 모바일 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들(115)을 지오 처리하고, 지오 처리된 이미지들(115)을 대상지(150)에 대응하는 지도, 도면 또는 위성 사진에 대해 매칭시키기 위해 필요한 연산을 수행할 수 있다. 또한, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어를 로딩하고, 해당 레이어와 매칭되는 공공 지도 또는 외부 지도 상에서 상기 레이어를 중첩하여 표시하고, 표시된 레이어에 대한 사용자로부터의 선택에 기반하여 측량 데이터를 획득하기 위해 필요한 연산을 수행할 수 있다. The processor 220 may manage components of the mobile terminal 100 and may be a component for executing a program or application used by the mobile terminal 100. For example, the processor 220 geo-processes the images 115 captured by the unmanned aerial vehicle 110, and applies the geo-processed images 115 to a map, drawing, or satellite photograph corresponding to the target site 150. You can perform the necessary operations for matching. In addition, the processor 220 loads a layer based on the image 115 of the target site 150 photographed by the unmanned aerial vehicle 110, and displays the layer by overlapping it on a public map or an external map matching the layer. , It is possible to perform a necessary operation to obtain the survey data based on the user's selection for the displayed layer.

프로세서(220)는 모바일 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서(220)에 의한 동작에 의해 도 3 내지 도 12를 참조하여 후술될 이미지(115)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 측량 데이터를 획득하는 방법이 수행될 수 있다. 프로세서(200)는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The processor 220 may be at least one processor of the mobile terminal 100 or at least one core within the processor. By the operation of the processor 220, a method of matching an image 115, which will be described later with reference to FIGS. 3 to 12, with a map, a drawing, or a satellite photograph, and a method of obtaining survey data, may be performed. The processor 200 may be implemented to execute instructions readable in a computer, and the above methods may be performed through execution of such instructions.

표시부(230)는 모바일 단말(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들(115) 및 지오 처리에 의해 매칭된 이미지(115)(즉, 지도, 도면 또는 위성 사진과 매칭되는 레이어), 이러한 레이어와 중첩되는 지도, 도면 또는 위성 사진을 출력하기 위한 디스플레이 장치일 수 있다. 표시부(230)는 터치 스크린을 포함할 수 있다. The display unit 230 outputs data input by the user of the mobile terminal 100 or images 115 captured by the unmanned aerial vehicle 110 and images 115 matched by geoprocessing (ie, a map, A layer matching a drawing or a satellite picture), a map overlapping with the layer, and a display device for outputting a drawing or a satellite picture. The display unit 230 may include a touch screen.

서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들(115)을 획득하여 이미지들(115)을 처리할 수 있다. 서버(120)는 획득된 이미지들(115)을 정합(예컨대, 픽셀 정합)함으로써 정합 이미지를 생성할 수 있다.The server 120 may process the images 115 by acquiring the images 115 through the mobile terminal 100 or directly from the unmanned aerial vehicle 110. The server 120 may generate a matched image by matching (eg, pixel matching) the acquired images 115.

서버(120)는 무인 비행체(110)와는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 서버(120)는 이미지들(115)에 대한 정합 프로세스를 수행하기 위한 고성능의 PC 또는 컴퓨팅 장치를 포함할 수 있다. The server 120 may be a server or other computing device that exists remotely from the unmanned aerial vehicle 110. The server 120 may include a high-performance PC or computing device for performing a matching process on the images 115.

서버(120)는 통신부 및 프로세서를 포함할 수 있다. 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(100) 및 무인 비행체(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The server 120 may include a communication unit and a processor. For the communication unit and the processor of the server 120, since technical descriptions of the communication unit and the processor of the mobile terminal 100 and the unmanned aerial vehicle 110 may be similarly applied, a redundant description will be omitted.

이상, 도 1을 참조하여 전술된 기술적 특징은 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIG. 1 can be applied to FIG. 2 as they are, a duplicate description will be omitted.

후술될 상세한 설명에서, 모바일 단말(100) 또는 프로세서(220)의 구성들에 의해 수행되는 동작이나 모바일 단말(100) 또는 프로세서(220)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(100)에 의해 수행되는 동작으로 설명될 수 있다. 서버(120) 및 무인 비행체(110)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the components of the mobile terminal 100 or the processor 220 or the operation performed by the application/program executed by the mobile terminal 100 or the processor 220 is for convenience of description. It may be described as an operation performed by the mobile terminal 100. The same applies to the server 120 and the unmanned aerial vehicle 110.

도 3은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of matching an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph according to an exemplary embodiment.

도 3을 참조하여, 무인 비행체(110)에 의해 촬영된 이미지(115)를 획득하고, 해당 이미지(115)의 픽셀 정보 및 중점 좌표에 기반하여, 이미지(115)의 경계점들에 대응하는 좌표들을 계산하고, 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시켜 매칭된 이미지(115)에 대응하는 레이어를 생성함으로써, 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(110)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 설명한다. Referring to FIG. 3, an image 115 photographed by the unmanned aerial vehicle 110 is acquired, and coordinates corresponding to boundary points of the image 115 are determined based on pixel information and center coordinates of the image 115. The image 110 of the target site 150 photographed by the unmanned aerial vehicle 110 by generating a layer corresponding to the matched image 115 by matching the calculated coordinates with the coordinates of the map, drawing, or satellite image ) To maps, drawings, or satellite images.

단계(310)에서, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 이미지(들)(115)를 획득할 수 있다. 모바일 단말(100)은 무인 비행체(110)와의 유/무선 통신을 통해 이미지(115)를 획득하거나, 무인 비행체(110)의 저장부를 모바일 단말(100)에 접속시킴으로써 이미지(115)를 획득할 수 있다. In step 310, the mobile terminal 100 may acquire the image(s) 115 photographed by the unmanned aerial vehicle 110. The mobile terminal 100 can acquire the image 115 through wired/wireless communication with the unmanned aerial vehicle 110, or obtain the image 115 by connecting the storage unit of the unmanned aerial vehicle 110 to the mobile terminal 100. have.

단계(320)에서, 모바일 단말(100)은 획득된 이미지(115)의 중점에 대응하는 중점 좌표를 획득할 수 있다. 예컨대, 무인 비행체(110)가 대상지(150)를 비행하면서 획득된 이미지(115)를 촬영한 시점에서의 무인 비행체(110)의 위치가 획득된 이미지(115)의 중점이 될 수 있다. 이러한 이미지(115)의 중점에 해당하는 좌표(중점 좌표)는 기지의 값일 수 있다. 말하자면, 모바일 단말(100)이 획득한 이미지(115)는 중점에 해당하는 중점 좌표에 대한 정보를 포함하고 있으며, 모바일 단말(100)은 획득한 이미지(115)로부터 이러한 중점 좌표를 획득할 수 있다. In step 320, the mobile terminal 100 may acquire the focal point coordinates corresponding to the focal point of the acquired image 115. For example, the position of the unmanned aerial vehicle 110 at the point in time when the unmanned aerial vehicle 110 flies over the target area 150 and the image 115 is captured may be the focus of the acquired image 115. The coordinates (center coordinates) corresponding to the midpoint of the image 115 may be known values. In other words, the image 115 acquired by the mobile terminal 100 includes information on the focal coordinates corresponding to the focal point, and the mobile terminal 100 can obtain such focal coordinates from the acquired image 115. .

단계(330)에서, 모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산할 수 있다. 경계점들은 이미지(115)의 꼭지점들을 포함할 수 있다. 예컨대, 모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 꼭지점들을 포함하는 경계점들의 좌표들을 계산할 수 있다.In step 330, the mobile terminal 100 may calculate coordinates of internal points/boundaries of the image 115 based on the pixel information of the acquired image 115 and the acquired central coordinates. Boundary points may include vertices of image 115. For example, the mobile terminal 100 may calculate coordinates of boundary points including vertices of the image 115 based on the acquired pixel information of the image 115 and the acquired central coordinates.

여기서, 픽셀 정보는 이미지(115)의 픽셀 하나가 나타내는 실제 좌표계에서의 넓이를 나타내는 정보를 포함할 수 있다. Here, the pixel information may include information indicating an area in an actual coordinate system represented by one pixel of the image 115.

단계(340)에서, 모바일 단말(100)은 단계(330)을 통해 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. 단계(340)에서, 모바일 단말(100)은 이미지(115)의 중점 좌표 또한 지도, 도면 또는 위성 사진의 좌표와 매칭시킬 수 있다. In step 340, the mobile terminal 100 may match the coordinates calculated through step 330 with the coordinates of a map, a drawing, or a satellite photo, thereby matching the image 115 with a map, drawing, or satellite image. have. In step 340, the mobile terminal 100 may match the coordinates of the central point of the image 115 with the coordinates of a map, a drawing, or a satellite image.

단계(350)에서, 모바일 단말(100)은 단계(340)에서의 좌표 매칭에 의해 매칭된 이미지(115)에 대응하는 레이어를 생성할 수 있다. 말하자면, 모바일 단말(100)은 단계(340)에서의 좌표 매칭에 의해 매칭된 이미지(115)를 레이어화 할 수 있다. In step 350, the mobile terminal 100 may generate a layer corresponding to the matched image 115 by coordinate matching in step 340. In other words, the mobile terminal 100 may layer the matched image 115 by coordinate matching in step 340.

생성된 레이어는 무인 비행체(110)에 의해 촬영된 이미지(115)를 레이어화 한 것으로서, 지도, 도면 또는 위성 사진의 좌표와 중첩하여 표시될 수 있다. The generated layer is a layered image 115 captured by the unmanned aerial vehicle 110, and may be displayed by overlapping with coordinates of a map, drawing, or satellite photo.

단계(360)에서, 모바일 단말(100)은 이미지(115)에 대응하여 생성된 레이어를 지도, 도면 또는 위성 사진 상에서 중첩하여 표시할 수 있다. 모바일 단말(100)의 사용자는 이러한 지도, 도면 또는 위성 사진과 중첩하여 표시되는 이미지(115)의 레이어를 통해, 지도, 도면 또는 위성 사진과 대상지(150)의 현재 모습을 촬영한 이미지(115)를 직관적으로 비교할 수 있다. 또는, 모바일 단말(100)의 사용자는 모바일 단말(100)을 조작함으로써 이미지(115)에 대응하여 생성된 레이어와 지도(들), 도면(들) 및 위성 사진(들) 중 적어도 2개의 레이어들을 중첩하여 표시할 수도 있다.In step 360, the mobile terminal 100 may display a layer generated in response to the image 115 by overlapping it on a map, drawing, or satellite image. The user of the mobile terminal 100 captures a map, a drawing, or a satellite picture and the current image 115 of the target site 150 through the layer of the image 115 displayed by overlapping with such a map, drawing, or satellite picture. Can be compared intuitively. Alternatively, the user of the mobile terminal 100 manipulates the mobile terminal 100 to create a layer corresponding to the image 115 and at least two layers of a map(s), a drawing(s), and a satellite photo(s). You can also display them overlaid.

이미지(115)의 각각은 대상지(150)의 일부를 촬영한 것으로서, 무인 비행체(110)로부터 획득되는 이미지는 복수일 수 있다. 전술된 단계들(310 내지 360)은 복수의 이미지들(115)의 각각에 대해 수행될 수 있다. Each of the images 115 is taken of a part of the target site 150, and there may be a plurality of images obtained from the unmanned aerial vehicle 110. The above-described steps 310 to 360 may be performed for each of the plurality of images 115.

예컨대, 단계(310)에서 이미지(115)를 획득함에 있어서, 모바일 단말(100)은 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)을 획득할 수 있고, 전술한 중점 좌표를 획득하는 단계(320), 경계점들(및/또는 내부 지점들)에 대응하는 좌표들을 계산하는 단계(330), 및 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시키는 단계(340)를 복수의 이미지들(115)의 각각에 대해 수행할 수 있다. For example, in obtaining the image 115 in step 310, the mobile terminal 100 is a plurality of images captured by the unmanned aerial vehicle 110 flying a path including a plurality of waypoints on the target site 150 S 115 can be obtained, the step 320 of obtaining the above-described focal point coordinates, the step 330 of calculating the coordinates corresponding to the boundary points (and/or internal points), and the image 115 The step 340 of matching with a map, a drawing, or a satellite photo may be performed for each of the plurality of images 115.

전술한 실시예를 통해서는, 서버(120)나 기타 원격지의 고성능의 PC를 통한 이미지들(115)에 대한 정합 프로세스 없이 이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시킬 수 있다. 대상지(150) 외부에서의 작업 및 상대적으로 많은 시간이 소요되는 정합 프로세스가 수행되지 않음으로써, 사용자는 자신의 모바일 단말(100)을 통해 신속하고 효율적으로 대상지(150)를 실시간으로 촬영한 이미지들(115)과 지도, 도면 또는 위성 사진을 비교할 수 있다. 따라서, 사용자는 지도, 도면 또는 위성 사진에서 변경된 부분(예컨대, 건물 신축/ 조림 상황/ 벌채 상황/ 공사 진행 상황)을 직관적으로 확인할 수 있다. Through the above-described embodiment, images 115 and maps, drawings, or satellite photos can be matched without a matching process for images 115 through the server 120 or other remote high-performance PC. Since the work outside the target site 150 and the matching process that takes a relatively long time are not performed, the user can quickly and efficiently capture the images of the target site 150 in real time through their mobile terminal 100 You can compare 115 and maps, drawings or satellite images. Accordingly, the user can intuitively check the changed part (eg, new building/reforestation/deforestation/construction progress) in maps, drawings, or satellite photos.

이상, 도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 may be applied to FIG. 3 as they are, so a redundant description is omitted.

도 4는 일 실시예에 따른, 이미지의 내부 지점들/경계점들의 좌표를 계산하는 방법을 나타내는 흐름도이다. 4 is a flowchart illustrating a method of calculating coordinates of internal points/boundary points of an image, according to an exemplary embodiment.

도 3을 참조하여 전술된 단계(330)의 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산하는 방법에 대해 더 자세하게 설명한다. A method of calculating coordinates of internal points/boundary points of the image 115 of the above-described step 330 will be described in more detail with reference to FIG. 3.

모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산할 수 있다.The mobile terminal 100 may calculate coordinates of internal points/boundary points of the image 115 based on the acquired pixel information of the image 115 and the acquired central coordinates.

픽셀 정보는 이미지(115)의 하나의 픽셀이 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함할 수 있다. The pixel information may include information on an area of one pixel of the image 115 in a coordinate system of a map, a drawing, or a satellite photo.

단계(410)에서, 이미지(115)의 경계점들에 대응하는 좌표들을 계산함에 있어서, 모바일 단말(100)은 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산할 수 있다. 예컨대, 모바일 단말(100)은 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 이미지(115)의 각 꼭지점에 해당하는 경계점까지의 픽셀이 몇 개인지를 계산할 수 있다. In step 410, in calculating the coordinates corresponding to the boundary points of the image 115, the mobile terminal 100 from a pixel of the image 115 corresponding to the central coordinate of the image 115 to each boundary point of the boundary points. The pixel distance to the corresponding pixel can be calculated. For example, the mobile terminal 100 may calculate a number of pixels from a pixel of the image 115 corresponding to the central coordinate of the image 115 to a boundary point corresponding to each vertex of the image 115.

단계(420)에서, 모바일 단말(100)은 이미지(115)의 중점 좌표, 이미지(115)의 픽셀 정보가 포함하는 넓이(하나의 픽셀이 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이)에 관한 정보 및 계산된 픽셀 거리에 기반하여 각 경계점의 좌표를 계산할 수 있다. 예컨대, 모바일 단말(100)은 하나의 픽셀이 10cm*10cm의 넓이를 나타내고, 중심 좌표로부터 경계점의 좌표까지의 픽셀 거리가 100(즉, 픽셀 100개만큼의 거리)인 경우, 상기 넓이에 관한 정보와 픽셀 거리 및 (기지의) 중점 좌표를 사용하여 경계점의 좌표를 계산할 수 있다. In step 420, the mobile terminal 100 relates to the central coordinate of the image 115 and the area included in the pixel information of the image 115 (the area that one pixel represents in the coordinate system of a map, drawing, or satellite photo). The coordinates of each boundary point may be calculated based on the information and the calculated pixel distance. For example, in the mobile terminal 100, when one pixel represents an area of 10cm*10cm, and the pixel distance from the center coordinate to the coordinate of the boundary point is 100 (that is, a distance of 100 pixels), information on the area The coordinates of the boundary point can be calculated using the and pixel distances and the (base) midpoint coordinates.

모바일 단말(100)은 (예컨대, 이미지(115)의 꼭지점에 해당하는) 계산된 경계점들의 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시킬 수 있다.The mobile terminal 100 matches the coordinates of the calculated boundary points (e.g., corresponding to the vertices of the image 115) with the coordinates of a map, a drawing, or a satellite photo, thereby matching the image with the map, drawing, or satellite image. I can make it.

유사하게, 모바일 단말(100)은 이미지(115)의 모서리(에지) 상의 점들에 해당하는 경계점들의 좌표들 역시 계산할 수 있고, 이들 계산된 좌표들을 지도, 도면 또는 위성 사진의 좌표들에 매칭시킬 수 있다. Similarly, the mobile terminal 100 may also calculate coordinates of boundary points corresponding to points on the corners (edges) of the image 115, and match these calculated coordinates with coordinates of a map, drawing, or satellite image. have.

한편, 매칭의 정확도를 보다 높이기 위한 방법으로서, 모바일 단말(100)은 이미지(115)의 (꼭지점들(또는 모서리들 상의 지점들)과 같은) 경계점들 뿐만아니라, 내부 지점들에 대응하는 좌표을 또한 계산할 수 있다. On the other hand, as a method to further increase the accuracy of matching, the mobile terminal 100 also determines not only boundary points (such as vertices (or points on corners)) of the image 115, but also coordinates corresponding to internal points. Can be calculated.

예컨대, 전술한 단계(330)에서, 모바일 단말(100)은 이미지(115)의 중점으로부터 이미지(115)의 (꼭지점들(또는 모서리들 상의 지점들)인) 경계점들까지를 기 설정된 개수로 분할하는 지점들(즉, 내부 지점들)의 각 지점에 대응하는 좌표를 계산할 수 있다. 상기 기 설정된 개수 또는 중점으로부터 경계점까지를 분할하는 비율(%)은 사용자의 모바일 단말(100)에 대한 설정에 따라 결정될 수 있다.For example, in the above-described step 330, the mobile terminal 100 divides from the midpoint of the image 115 to the boundary points (vertexes (or points on the corners)) of the image 115 by a preset number. It is possible to calculate coordinates corresponding to each of the points (ie, internal points). The preset number or the ratio (%) of dividing from the midpoint to the boundary point may be determined according to the user's setting for the mobile terminal 100.

모바일 단말(100)은 상기 각 지점(즉, 각 내부 지점)에 대응하는 좌표를 계산함에 있어서, 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 상기 각 지점에 해당하는 이미지(115)의 픽셀까지의 픽셀 거리를 계산할 수 있다(단계(410)). 모바일 단말(100)은 이미지(115)의 중점 좌표, 픽셀 정보가 포함하는 넓이에 관한 정보 및 상기 각 지점에 해당하는 이미지(115)의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산할 수 있다(단계(420)). 중점 좌표 대신에는 계산된 경계점의 좌표나, 미리 계산된 다른 내부 지점의 좌표가 사용될 수 있다. In calculating the coordinates corresponding to each point (ie, each internal point), the mobile terminal 100 calculates an image corresponding to each point from a pixel of the image 115 corresponding to the central coordinate of the image 115 ( 115), the pixel distance to the pixel may be calculated (step 410). The mobile terminal 100 may calculate the coordinates of each point based on the center coordinate of the image 115, information on the area included in the pixel information, and the pixel distance to the pixel of the image 115 corresponding to each point. Yes (step 420). Instead of the midpoint coordinates, the calculated coordinates of the boundary point or the coordinates of other pre-calculated internal points may be used.

모바일 단말(100)은 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킴에 있어서, 상기 각 지점의 좌표와 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. In matching the image 115 with a map, a drawing, or a satellite photo, the mobile terminal 100 matches the coordinates of the respective points with the coordinates of the map, drawing, or satellite photo, thereby matching the image 115 to a map, drawing, or It can be matched with satellite photos.

이와 같이, 이미지(115)의 경계점들 외에 이미지(115)의 내부 지점들의 좌표들을 지도, 도면 또는 위성 사진의 좌표들에 대해 더 매칭시킴으로써 매칭의 정확도를 높일 수 있다. In this way, the accuracy of matching may be improved by further matching coordinates of internal points of the image 115 in addition to the boundary points of the image 115 with coordinates of a map, a drawing, or a satellite image.

경계점 및 내부 지점에 대한 좌표를 계산하는 보다 구체적인 방법에 대해서는 도 5c를 참조하여 더 자세하게 설명된다. A more specific method of calculating coordinates for the boundary point and the inner point will be described in more detail with reference to FIG. 5C.

도 5c는 일 예에 따른, 이미지에 대한 정합 프로세스 없이, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타낸다. 5C illustrates a method of matching an image to a map, a drawing or a satellite photograph without a matching process for the image, according to an example.

도시된 이미지(115)에 있어서, 도시된 지점들(560 내지 580)은 좌표 계산의 대상이 되는 이미지(115) 상의 지점들을 나타낼 수 있다. 지점들(560)은 이미지(115)의 경계점들(560)을 나타낼 수 있다. 지점들(565 내지 580)은 이미지(115)의 내부 지점들(565 내지 580)을 나타낼 수 있다.In the illustrated image 115, illustrated points 560 to 580 may represent points on the image 115 to be subjected to coordinate calculation. Points 560 may represent boundary points 560 of image 115. Points 565 to 580 may represent internal points 565 to 580 of image 115.

모바일 단말(100)은 이미지(115)의 중점(550)의 중점 좌표, 픽셀 정보가 포함하는 넓이에 관한 정보 및 경계점들(560) 각각까지의 계산된 픽셀 거리에 기반하여 각 경계점(560)의 좌표를 계산할 수 있다.The mobile terminal 100 is based on the coordinates of the midpoint of the midpoint 550 of the image 115, information on the area included in the pixel information, and the calculated pixel distance to each of the boundary points 560. You can calculate the coordinates.

또한, 모바일 단말(100)은 유사한 방식으로 이미지(115)의 중점(550)으로부터 이미지(115)의 경계점들(560)까지를 기 설정된 개수로 분할하는 내부 지점들(565 내지 580)의 각 지점(565 내지 580)에 대응하는 좌표를 계산할 수 있다.In addition, the mobile terminal 100 divides each point of the internal points 565 to 580 into a preset number from the midpoint 550 of the image 115 to the boundary points 560 of the image 115 in a similar manner. Coordinates corresponding to (565 to 580) can be calculated.

도시된 예시에서 이미지(115)의 중점(550)으로부터 이미지(115)의 경계점들(560)까지를 분할하는 기 설정된 개수 또는 비율(%)은 4 또는 25%로 설정되었다. 기 설정된 개수가 클수록(또는, 비율이 작을수록) 매칭의 정확도가 높게될 수 있다. In the illustrated example, a preset number or ratio (%) of dividing from the midpoint 550 of the image 115 to the boundary points 560 of the image 115 is set to 4 or 25%. The larger the preset number (or the smaller the ratio), the higher the accuracy of matching.

모바일 단말(100)은 기 설정된 개수 또는 비율에 기반하여, 이미지(115)의 중점(550)을 중심으로 하는 가상의 도형(들)을 생성할 수 있고, 이러한 가상의 도형(들)의 꼭지점들이나 모서리 상의 지점들을 좌표 계산의 대상이 되는 이미지(115)의 내부 지점으로서 결정할 수 있다. 가상의 도형은 도시된 것처럼 정사각형이거나 혹은 직사각형일 수 있다. 또는, 가상의 도형은 기타 다각형 또는 원이 될 수도 있다. 말하자면, 모바일 단말(100)은 좌표 계산의 대상이 되는 내부 지점들을 결정하기 위해 이미지(115)의 중점(550)을 중심으로 하는 동심 다각형(또는 동심원)(들)을 생성할 수 있다.The mobile terminal 100 can generate a virtual figure(s) centered on the midpoint 550 of the image 115 based on a preset number or ratio, and the vertices of the virtual figure(s) Points on the corners may be determined as internal points of the image 115 to be subjected to coordinate calculation. The imaginary figure may be square or rectangular as shown. Alternatively, the virtual figure may be other polygons or circles. That is to say, the mobile terminal 100 may generate a concentric polygon (or concentric circle)(s) centered on the midpoint 550 of the image 115 to determine internal points to be subjected to coordinate calculation.

실시예에서는, 경계점들(560)을 비롯하여 내부 지점들(565 내지 580)의 좌표를 계산하여 대상지(150)를 나타내는 지도, 도면 또는 위성 사진(590)의 좌표들에 매칭시킴으로써 매칭의 정확도를 높일 수 있다.In the embodiment, the accuracy of matching is improved by calculating the coordinates of the boundary points 560 and the inner points 565 to 580 and matching the coordinates of the map, drawing, or satellite image 590 representing the target site 150. I can.

도 5c에서는 경계점들과 내부 지점들이 모두 꼭지점인 경우가 도시되었으나, 경계점들과 내부 지점들의 각각은 이미지(115)의 모서리 상의 점 및 이미지(115)의 가상의 내부 도형 상의 점(예컨대, 가상의 다각형의 모서리 상의 점)일 수도 있다. 이와 관련하여 중복되는 설명은 생략한다. In FIG. 5C, both the boundary points and the inner points are vertices, but each of the boundary points and the inner points is a point on the edge of the image 115 and a point on the virtual inner figure of the image 115 (for example, a virtual It may be a point on the corner of the polygon). Redundant descriptions in this regard will be omitted.

또한, 매칭의 정확도를 높이기 위해, 이미지(115)의 왜곡률이 보정될 수 있다. 이러한 왜곡률의 보정은 이미지(115)가 획득된 후 단계(320)이 수행되기 전에 수행될 수 있다. 왜곡률이 나타내는 이미지(115)의 왜곡은 무인 비행체(110)의 카메라 렌즈의 왜곡에 의해 기인된 것일 수 있다. In addition, in order to increase the accuracy of matching, the distortion factor of the image 115 may be corrected. The correction of the distortion factor may be performed after the image 115 is acquired and before the step 320 is performed. The distortion of the image 115 indicated by the distortion factor may be caused by distortion of the camera lens of the unmanned aerial vehicle 110.

이상, 도 1 내지 3을 참조하여 전술된 기술적 특징은 도 4 및 도 5c에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 3 may be applied to FIGS. 4 and 5C as they are, duplicate descriptions are omitted.

도 5a는 일 예에 따른, 이미지들을 픽셀 정합하는 방법을 나타내고, 도 5b는 일 예에 따른, 이미지들을 간편 정합하는 방법을 나타낸다. FIG. 5A illustrates a method of pixel matching images according to an example, and FIG. 5B illustrates a method of simply matching images according to an example.

도 5a에서는 무인 비행체(110)에 의해 촬영된 이미지들(115)에 대해 정합 프로세스를 수행함으로써 정합 이미지(510)를 생성하는 방법이 도시되었다. In FIG. 5A, a method of generating a registration image 510 by performing a registration process on images 115 captured by the unmanned aerial vehicle 110 is illustrated.

도 5b에서는 무인 비행체(110)에 의해 촬영된 이미지들(115)에 대해 간편 정합 프로세스를 수행함으로써 정합 이미지(510)를 생성하는 방법이 도시되었다. 도 5b를 참조하여 설명되는 간편 정합 프로세스는 도 5a를 참조하여 설명되는 정합 프로세스에 비해 더 적은 연산을 요구하고, 더 적은 시간을 소요하는 정합 프로세스일 수 있다. In FIG. 5B, a method of generating a matching image 510 by performing a simple matching process on images 115 captured by the unmanned aerial vehicle 110 is illustrated. The simple matching process described with reference to FIG. 5B may be a matching process that requires fewer operations and takes less time than the matching process described with reference to FIG. 5A.

도시된 복수의 이미지들(115)은 소정의 사진 중복률을 갖도록 대상지(150)를 촬영한 것일 수 있고, 이러한 복수의 이미지들(150)의 각각은 대상지(150)의 일부를 촬영한 것일 수 있다. The illustrated plurality of images 115 may be taken of the target site 150 so as to have a predetermined photo redundancy rate, and each of the plurality of images 150 may be taken of a part of the target site 150 have.

도 5a를 참조하여 설명되는 정합 프로세스는 서버(120) 또는 원격지의 고성능의 PC에서 수행되는 것일 수 있다. The matching process described with reference to FIG. 5A may be performed in the server 120 or a remote high-performance PC.

픽셀 정합은 복수의 이미지들(115) 각각의 픽셀들의 각각을 비교하여, 복수의 이미지들(115)을 하나의 정합된 이미지인 정합 이미지(510)로서 생성하는 작업일 수 있다. 이러한 픽셀 정합은 복수의 이미지들의 각각의 모든 픽셀들에 대해 비교가 이루어져야 하므로, 매우 많은 연산이 요구되고, 정합 이미지(510)의 생성에 많은 시간이 소요될 수 있다.The pixel matching may be an operation of comparing each of the pixels of each of the plurality of images 115 and generating a plurality of images 115 as a matched image 510 that is a matched image. In such pixel matching, a comparison must be made for each and every pixel of a plurality of images, so a very large number of calculations are required, and it may take a lot of time to generate the matched image 510.

이에 비해, 도 5b를 참조하여 설명되는 간편 정합 프로세스는 도 5a를 참조하여 설명되는 정합 프로세스에 비해 더 적은 연산을 요구하고, 더 적은 시간을 소요하여 정합 이미지(540)를 생성하는 정합 프로세스일 수 있다.In contrast, the simple matching process described with reference to FIG. 5B may be a matching process that requires fewer operations and takes less time to generate the matching image 540 than the matching process described with reference to FIG. 5A. have.

도 5b를 참조하여 설명되는 간편 정합 프로세스는 서버(120)에서 수행될 수 있다. The simple matching process described with reference to FIG. 5B may be performed in the server 120.

아래에서, 간편 정합 프로세스를 수행하는 방법에 대해 더 자세하게 설명한다.In the following, a method of performing the simple matching process will be described in more detail.

모바일 단말(100)의 제어에 따라, 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)은 서버(120)로 전달되어 정합될 수 있다. 이 때, 이미지들(115)은 무인 비행체(110)로부터 직접 전송되거나, 모바일 단말(100)로부터 서버(120)로 업로드될 수 있다.Under the control of the mobile terminal 100, a plurality of images 115 captured by the unmanned aerial vehicle 110 may be transmitted to the server 120 and matched. In this case, the images 115 may be directly transmitted from the unmanned aerial vehicle 110 or may be uploaded from the mobile terminal 100 to the server 120.

서버(120)에서의 정합에 의해, 복수의 이미지들(115)은 픽셀 정합되어 하나의 정합 이미지(540)로서 생성될 수 있다.By matching in the server 120, the plurality of images 115 may be pixel-matched to be generated as a single matched image 540.

간편 정합 프로세스를 수행함에 있어서는, 복수의 이미지들(115) 중 제1 이미지(115-1) 및 제1 이미지(115-1)와 이웃하는 제2 이미지(115-2)에 대한 상기 픽셀 정합이, 제1 이미지(115-1) 및 제2 이미지(115-2)의 중복하는 부분 중 모바일 단말(100)의 성능 혹은 서버(120) 또는 모바일 단말(100)의 사용자에 의해 기 설정된 비율만큼의 일부(520)를 제외한 나머지 부분(530)에 대해서만 제1 이미지(115-1)의 픽셀 및 제2 이미지(115-2)의 픽셀을 비교함으로써 수행될 수 있다. 이러한 간편 정함 프로세스는 서버(120)에 의해 수행될 수 있다. In performing the simple matching process, the pixel matching of the first image 115-1 of the plurality of images 115 and the second image 115-2 adjacent to the first image 115-1 is performed. , Among the overlapping portions of the first image 115-1 and the second image 115-2, the performance of the mobile terminal 100 or the ratio set by the user of the server 120 or the mobile terminal 100 It may be performed by comparing the pixels of the first image 115-1 and the pixels of the second image 115-2 for only the remaining parts 530 except for the part 520. This simple decision process may be performed by the server 120.

즉, 제1 이미지(115-1) 및 제1 이미지(115-1)와 이웃하는 제2 이미지(115-2)에 대해 픽셀 정함을 수행함에 있어서, 50%의 중복 부분 중 픽셀 정합 배제부(520)에 해당하는 부분에 대해서는 픽셀 정합이 수행되지 않고, 픽셀 정합부(530)에 해당하는 부분에 대해서만 픽셀 정합이 수행될 수 있다. That is, in performing pixel determination on the first image 115-1 and the second image 115-2 adjacent to the first image 115-1, the pixel matching excluder ( Pixel matching may not be performed on the portion corresponding to 520, and pixel matching may be performed only on the portion corresponding to the pixel matching unit 530.

이를 통해, 이미지들(115) 간의 픽셀 정합에 수행되는 연산량을 현저하게 감소시킬 수 있다. Through this, the amount of computation performed for pixel matching between the images 115 can be significantly reduced.

간편 정합 프로세스를 통해 이미지들(115)의 정합의 정확도는 유지하면서, 정합 프로세스에 소요되는 리소스 및 시간을 절약할 수 있다. While maintaining the accuracy of the registration of the images 115 through the simple registration process, it is possible to save resources and time required for the registration process.

생성된 정합 이미지(510, 590)는 지도, 도면 또는 위성 사진(590)에 대해 매칭될 수 있다. The generated matched images 510 and 590 may be matched against a map, drawing, or satellite image 590.

이미지들(115)의 중복 부분 중 픽셀 정합 배제부(520)의 비율은 모바일 단말(100)의 성능 및 모바일 단말(100)과 서버(120) 간의 통신 상태에 의해 자동으로 결정될 수 있다. 또는, 이러한 비율은 모바일 단말(100)의 사용자에 의해 설정될 수 있다. The ratio of the pixel matching excluder 520 among the overlapping portions of the images 115 may be automatically determined by the performance of the mobile terminal 100 and the communication state between the mobile terminal 100 and the server 120. Alternatively, this ratio may be set by the user of the mobile terminal 100.

실시예에서는, 모바일 단말(100)의 사용자가, 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)에 대해, 일반 정합 프로세스(제1 정합 프로세스)를 수행할 것인지(예컨대, 도 5a의 정합 프로세스), 간편 정합 프로세스(제2 정합 프로세스)를 수행할 것인지(예컨대, 도 5b의 간편 정합 프로세스), 또는 이미지들(115)의 정합을 수행하지 않고 이미지들(115)의 각각을 지오 처리할 것인지(예컨대, 도 5c의 지오 처리 프로세스)를 선택할 수 있다. In the embodiment, whether the user of the mobile terminal 100 performs a general registration process (first registration process) on a plurality of images 115 captured by the unmanned aerial vehicle 110 (eg, FIG. 5A Of the matching process), whether to perform the simple matching process (the second matching process) (for example, the simple matching process of FIG. 5B), or geometries each of the images 115 without performing registration of the images 115. It is possible to select whether to process (eg, the geo-processing process of FIG. 5C).

이러한, 사용자의 선택에 따른 모바일 단말(100)의 제어를 통해 이미지들(115)에 대해 서버(120)에서 제1 정합 프로세스 또는 제2 정합 프로세스가 수행되거나, 모바일 단말(100)에서의 지오 처리 프로세스가 수행될 수 있다. The first matching process or the second matching process is performed in the server 120 for the images 115 through the control of the mobile terminal 100 according to the user's selection, or the geo-processing in the mobile terminal 100 The process can be carried out.

한편, 무인 비행체(110)에 의한 대상지(150)에 대한 촬영이 수행되기 전(즉, 무인 비행체(110)의 비행 전)에 간편 정합 프로세스의 수행이 모바일 단말(100)의 사용자에 의해 선택된 경우, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것에 비해 더 적은 수의 이미지들을 촬영할 수 있고, 또는, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것에 비해 더 낮은 중복률을 갖는 이미지들을 촬영할 수 있고, 또는, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것보다 더 높은 고도에서 이미지들을 촬영할 수 있다.On the other hand, when the execution of the simple matching process is selected by the user of the mobile terminal 100 before the photographing of the target site 150 by the unmanned aerial vehicle 110 is performed (ie, before the flight of the unmanned aerial vehicle 110) , The unmanned aerial vehicle 110 may take a smaller number of images than that required by the first matching process, or, the unmanned aerial vehicle 110 is an image having a lower redundancy rate than that required by the first matching process. They may be photographed, or the unmanned aerial vehicle 110 may photograph images at a higher altitude than required by the first registration process.

즉, 간편 정합 프로세스가 수행되는 경우에는 일반 정합 프로세스가 수행되는 경우에 비해 무인 비행체(110)에 의해 촬영되는 이미지의 개수가 더 작게 될 수 있다.That is, when the simple matching process is performed, the number of images photographed by the unmanned aerial vehicle 110 may be smaller than when the general matching process is performed.

실시예에서는, 모바일 단말(100)과 간편 정합 프로세스를 수행하는 서버(120)를 포함하여 이미지(115)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 시스템이 구현될 수 있다. In the embodiment, a system may be implemented that includes the mobile terminal 100 and the server 120 performing a simple matching process to match the image 115 to a map, a drawing, or a satellite image.

이상, 도 1 내지 4 및 도 5c를 참조하여 전술된 기술적 특징은 도 5a 및 도 5b에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 4 and 5C may be applied to FIGS. 5A and 5B as they are, so a redundant description will be omitted.

도 6은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지에 기반한 레이어로부터 측량 데이터를 획득하는 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a method of acquiring survey data from a layer based on an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, according to an exemplary embodiment.

도 6을 참조하여, 무인 비행체에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어와 공공 지도 또는 외부 지도를 중첩하여 표시하고, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법에 대해 설명한다. Referring to FIG. 6, a method of superimposing and displaying a layer based on the image 115 of the target site 150 photographed by an unmanned aerial vehicle and a public map or an external map, and obtaining survey data according to a user's selection Explain.

단계(610)에서, 모바일 단말(100)은 공공 지도 또는 외부 어플리케이션으로부터 제공되는 외부 지도를 로딩할 수 있다. 예컨대, 모바일 단말(100)은 대상지(150)의 이미지(115)에 기반한 레이어와 공공 지도 또는 외부 지도를 중첩하여 표시하기 위한 전용 어플리케이션을 통해 공공 지도 또는 외부 지도를 로딩할 수 있다. In step 610, the mobile terminal 100 may load a public map or an external map provided from an external application. For example, the mobile terminal 100 may load a public map or an external map through a dedicated application for superimposing and displaying a layer based on the image 115 of the target site 150 and a public map or an external map.

단계(620)에서, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지에 기반하여 생성된, 공공 지도 또는 외부 지도와 매칭되는 레이어를 로딩할 수 있다. 예컨대, 모바일 단말(100)은 상기 전용 어플리케이션을 통해 상기 레이어를 로딩할 수 있다. In step 620, the mobile terminal 100 may load a layer matching a public map or an external map, generated based on the image of the target site 150 photographed by the unmanned aerial vehicle 110. For example, the mobile terminal 100 may load the layer through the dedicated application.

"공공 지도 또는 외부 지도와 매칭되는 레이어"는 도 1 내지 도 5c를 참조하여 전술된 지도, 도면 또는 위성 사진과 매칭된 이미지에 대응하는 레이어(즉, 단계(350)에 의해 생성된 레이어)일 수 있다. 예컨대, 공공 지도 또는 외부 지도와 매칭되는 레이어는, 모바일 단말(100)에 의해 수행되는, 무인 비행체(110)에 의해 촬영된 이미지(115)를 획득하는 단계(310), 이미지(115)의 중점에 대응하는 중점 좌표를 획득하는 단계(320), 이미지(115)의 픽셀 정보 및 중점 좌표에 기반하여, 이미지(115)의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계(330), 계산된 좌표들과 공공 지도 또는 공공 지도의 좌표들을 매칭시킴으로써, 이미지(115)를 공공 지도 또는 공공 지도 매칭시키는 단계(340) 및 매칭된 이미지(115)에 대응하는 레이어를 생성하는 단계(350)에 의해 생성될 수 있다. "Layer matching a public map or an external map" is a layer corresponding to the image matched with the map, drawing, or satellite image described above with reference to FIGS. 1 to 5C (ie, a layer created by step 350). I can. For example, a layer matching a public map or an external map is performed by the mobile terminal 100, the step 310 of acquiring the image 115 captured by the unmanned aerial vehicle 110, the focus of the image 115 Acquiring (320) the center coordinates corresponding to the, based on the pixel information and the center coordinates of the image 115, calculating coordinates corresponding to the boundary points including the vertices of the image 115 (330), By matching the calculated coordinates with the coordinates of the public map or the public map, the step of matching the image 115 to the public map or the public map 340 and the step of creating a layer corresponding to the matched image 115 (350) Can be created by

또는, 공공 지도 또는 외부 지도와 매칭되는 레이어는, 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영되고 소정의 사진 중복률을 갖도록 대상지(150)를 촬영한 복수의 이미지들(115)로서, 그 각각이 대상지의 일부를 촬영한 것인 복수의 이미지들(115)을, 서버(120) 또는 모바일 단말(100)의 외부 기기(일례로, 고성능의 PC)에서 픽셀 정합함으로써 생성된 것일 수 있다. 예컨대, 공공 지도 또는 외부 지도와 매칭되는 레이어는 전술된 제1 정합 프로세스 또는 제2 정합 프로세스에 의해 생성된 정합 이미지에 기반하여 생성된 것일 수 있다. Alternatively, the layer matching the public map or the external map is photographed by the unmanned aerial vehicle 110 flying a path including a plurality of waypoints on the target site 150 and includes the target site 150 to have a predetermined photo overlap rate. As a plurality of captured images 115, each of which is a part of the target site, a plurality of images 115, the server 120 or an external device of the mobile terminal 100 (for example, a high-performance PC) may be generated by pixel matching. For example, a layer matching the public map or the external map may be generated based on the matching image generated by the above-described first matching process or the second matching process.

단계(630)에서, 모바일 단말(100)은 공공 지도 또는 외부 지도와 매칭되는 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다. 상기 레이어와 공공 지도 또는 외부 지도의 중첩 표시는 상기 전용 어플리케이션 상에서 이루어질 수 있다. In step 630, the mobile terminal 100 may display a public map or a layer matching the external map by overlapping it on the public map or the external map. The overlapping display of the layer and the public map or the external map may be performed on the dedicated application.

공공 지도 또는 외부 지도와 매칭되는 레이어는 소정의 투명도를 가지고 표시될 수 있다. 따라서, 상기 레이어와 중첩하여 표시되는 공공 지도 또는 외부 지도가 상기 레이어를 통해 시인될 수 있다. A layer matching a public map or an external map may be displayed with a predetermined transparency. Accordingly, a public map or an external map displayed by overlapping with the layer may be visually recognized through the layer.

단계(640)에서, 모바일 단말(100)은 표시된 레이어에 대한 (예컨대, 레이어의 적어도 2개의 포인트들에 대한) 모바일 단말(100)의 사용자로부터의 선택을 수신할 수 있다. 사용자로부터의 선택은 모바일 단말(100)의 표시부(230)(터치 스크린)에 대한 사용자의 인터랙션일 수 있다. 이러한 사용자로부터의 선택은 표시된 레이어 상의 2개의 포인트들에 대한 독립적인 터치(또는 선택)이거나, 일 포인트로부터 다른 일 포인트까지의 연속적인 터치(예컨대, 드래그)일 수 있다. In step 640, the mobile terminal 100 may receive a selection from the user of the mobile terminal 100 (eg, for at least two points of the layer) for the indicated layer. The user's selection may be a user's interaction with the display unit 230 (touch screen) of the mobile terminal 100. The selection from the user may be an independent touch (or selection) for two points on the displayed layer, or may be a continuous touch (eg, drag) from one point to another.

단계(640)에서, 모바일 단말(100)은 상기 사용자로부터의 선택에 의해 생성된 상기 레이어 상의 도형으로부터 측량 데이터를 획득할 수 있다. 생성되는 도형은 점, 선 및 면 중 적어도 하나로 구성되는 도형일 수 있다. In step 640, the mobile terminal 100 may obtain the survey data from the figure on the layer created by the user's selection. The generated figure may be a figure composed of at least one of a point, a line, and a plane.

예컨대, 모바일 단말(100)은 사용자로부터 선택된 레이어 상의 포인트에 대한 좌표를 측량 데이터를 획득할 수 있다. 또는, 상기 도형이 직선(또는 선분 혹은 곡선)인 경우 모바일 단말(100)은 해당 도형의 길이를 계산할 수 있고, 계산된 도형의 길이를 측량 데이터로서 획득할 수 있다. 또는, 상기 도형이 폐곡선으로 구성된 도형인 폴리곤(다각형 또는 원 등)인 경우 모바일 단말(100)은 해당 도형의 넓이를 계산할 수 있고, 계산된 도형의 넓이를 측량 데이터로서 획득할 수 있다.For example, the mobile terminal 100 may acquire survey data for coordinates of a point on a layer selected by the user. Alternatively, when the figure is a straight line (or line segment or curve), the mobile terminal 100 may calculate the length of the figure and obtain the calculated length as measurement data. Alternatively, when the figure is a polygon (polygon or circle, etc.) that is a figure composed of a closed curve, the mobile terminal 100 may calculate the area of the figure and obtain the calculated area as survey data.

말하자면, 모바일 단말(100)은 사용자로부터의 선택에 의해 생성된 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산할 수 있고, 계산된 도형의 길이 및 넓이 중 적어도 하나를 측량 데이터로서 획득할 수 있다.In other words, the mobile terminal 100 may calculate at least one of the length and width of the figure on the layer generated by the user's selection, and obtain at least one of the calculated length and the width of the figure as survey data.

모바일 단말(100)은 생성된 도형이 폴리곤인 경우, 해당 폴리곤의 넓이를 측량 데이터로서 획득할 수 있고, 생성된 도형이 폴리곤이 아닌 경우, 사용자에 의해 선택된 포인트들 간의 길이를 측량 데이터로서 획득할 수 있다. 모바일 단말(100)은 폴리곤의 넓이를 측량 데이터로서 획득하는 경우에 있어서도, 해당 폴리곤을 구성하는 각 선(예컨대, 각 모서리)의 길이를 또한 측량 데이터로서 획득할 수 있다.When the generated figure is a polygon, the mobile terminal 100 may obtain the area of the polygon as survey data, and when the generated figure is not a polygon, the mobile terminal 100 may obtain the length between points selected by the user as survey data. I can. Even when obtaining the area of the polygon as survey data, the mobile terminal 100 may also obtain the length of each line (eg, each corner) constituting the polygon as survey data.

모바일 단말(100)은 획득된 측량 데이터를 표시부(230)를 통해 출력할 수 있다. 예컨대, 모바일 단말(100)은 사용자가 시인할 수 있도록 표시된 레이어에서 생성된 도형의 옆에 획득된 측량 데이터를 표시할 수 있다. 또는, 모바일 단말(100)은 별개의 윈도우를 통해 획득된 측량 데이터를 표시할 수 있다.The mobile terminal 100 may output the obtained survey data through the display unit 230. For example, the mobile terminal 100 may display the acquired survey data next to a figure created in a displayed layer so that the user can visually recognize it. Alternatively, the mobile terminal 100 may display survey data acquired through a separate window.

한편, 사용자로부터의 선택에 의해 생성된 레이어 상의 도형은 상기 레이어 및 상기 레이어와 중첩된 공공 지도 또는 외부 지도와는 시각적으로 구분되도록 표시될 수 있다. Meanwhile, the figure on the layer generated by the user's selection may be displayed to be visually distinguished from the layer and a public map or an external map overlapping the layer.

이상, 도 1 내지 도 5c를 참조하여 전술된 기술적 특징은 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 5C can be applied to FIG. 6 as they are, a duplicate description will be omitted.

도 7은 일 예에 따른, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법을 나타내는 흐름도이다. 7 is a flowchart illustrating a method of obtaining survey data according to a selection from a user, according to an example.

도 7을 참조하여, 사용자로부터의 선택에 의해 생성된 레이어 상의 도형에 대해 측량 데이터를 획득하는 보다 구체적인 방법에 대해 설명한다. With reference to FIG. 7, a more specific method of acquiring survey data for a figure on a layer created by a user's selection will be described.

단계(710)에서, 모바일 단말(100)은 생성된 도형이 폴리곤인 경우, 해당 폴리곤의 넓이를 계산할 수 있다. 모바일 단말(100)은 사용자에 의해 선택된 포인트 및 상기 폴리곤에 대응하는 좌표를 획득할 수 있고, 획득된 좌표에 기반하여 폴리곤의 넓이를 계산할 수 있다. In step 710, when the generated figure is a polygon, the mobile terminal 100 may calculate the area of the polygon. The mobile terminal 100 may obtain a point selected by a user and a coordinate corresponding to the polygon, and may calculate the area of a polygon based on the obtained coordinate.

말하자면, 레이어에 대한 사용자의 선택에 따라 획득되는 측량 데이터는 사용자에 의해 선택된 포인트들의 각각에 대한 좌표를 포함할 수 있고, 이 때, 좌표는 공공 지도 또는 외부 지도가 사용하는 좌표계의 좌표 값일 수 있다. 폴리곤의 넓이는 상기 선택된 포인트들의 각각에 대한 좌표에 기반하여 계산될 수 있다. In other words, the survey data obtained according to the user's selection for the layer may include coordinates for each of the points selected by the user, and in this case, the coordinates may be coordinate values of a coordinate system used by a public map or an external map. . The area of the polygon may be calculated based on the coordinates for each of the selected points.

단계(715)에서, 모바일 단말(100)은 상기 폴리곤을 침해지로 마킹하여 표시할 수 있다. 모바일 단말(100)은 계산된 폴리곤의 넓이를 상기 침해지의 넓이인 측량 데이터로서 획득할 수 있다. In step 715, the mobile terminal 100 may mark and display the polygon as an intrusion area. The mobile terminal 100 may obtain the calculated area of the polygon as survey data that is the area of the intrusion area.

단계(720)에서, 모바일 단말(100)은 레이어에 대한 사용자에 의해 선택된 포인트들 간의 길이를 계산할 수 있고, 계산된 길이를 표시할 수 있다. 상기 선택된 포인트들 간의 길이는 상기 선택된 포인트들 각각의 좌표에 기반하여 계산될 수 있다.In step 720, the mobile terminal 100 may calculate the length between the points selected by the user for the layer, and may display the calculated length. The length between the selected points may be calculated based on the coordinates of each of the selected points.

단계(730)에서, 모바일 단말(100)은 레이어에 대한 사용자에 의해 선택된 포인트들에 기반하여 소정의 경계선을 결정할 수 있다. 상기 경계선은 사용자가 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반하여 생성된 레이어와 해당 레이어와 중첩된 공공 지도 또는 외부 지도를 비교하여 인식한 후, 상기 레이어 상에 표시한 임의의 경계를 나타내는 선일 수 있다. In step 730, the mobile terminal 100 may determine a predetermined boundary line based on points selected by the user for the layer. The boundary line is recognized by comparing a layer created based on the image 115 of the target site 150 photographed by the unmanned aerial vehicle 110 with a public map or an external map superimposed on the layer, and then It may be a line indicating an arbitrary boundary marked on.

단계(740)에서, 모바일 단말(100)은 결정된 경계선을 마킹하여 표시할 수 있다.In step 740, the mobile terminal 100 may mark and display the determined boundary line.

전술된 상세한 설명에서, 사용자에 의해 선택된 포인트들에 기반하여 생성된 도형(폴리곤, 경계선 등)을 "마킹하는 것"은 모바일 단말(100)이 상기 도형을 별개의 객체로서 결정하는 것을 의미할 수 있다. 예컨대, 모바일 단말(100)은 상기 도형을 별개의 객체로서 관리하거나, (적어도 임시로) 저장할 수 있다. 따라서, 모바일 단말(100)은 사용자에 의한 모바일 단말(100)의 조작에 따라 상기 도형을 이미지(115)의 레이어와는 별개로 삭제/수정/변경할 수 있다. 또한, 이러한 마킹된 도형은 이미지(115)의 레이어나 공공 지도 또는 외부 지도와는 시각적으로 구분되어 표시될 수 있다. In the above detailed description, "marking" a figure (polygon, boundary line, etc.) generated based on points selected by a user may mean that the mobile terminal 100 determines the figure as a separate object. have. For example, the mobile terminal 100 may manage the figure as a separate object or store it (at least temporarily). Accordingly, the mobile terminal 100 may delete/modify/change the figure separately from the layer of the image 115 according to the manipulation of the mobile terminal 100 by the user. In addition, such a marked figure may be visually separated from a layer of the image 115, a public map, or an external map and displayed.

이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 6 may be applied to FIG. 7 as they are, a duplicate description will be omitted.

도 8은 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 측량 데이터를 획득하는 방법을 나타낸다. 8 illustrates a method of obtaining survey data by marking and displaying a boundary line over time, according to an example.

도 8을 참조하여, 시간에 따라 대상지(150)의 환경이 변화하는 경우에 있어서, 모바일 단말(100)이 해당 변화를 경계선을 통해 이미지(115)의 레이어 상에 표시할 수 있도록 하는 방법에 대해 설명한다. Referring to FIG. 8, when the environment of the target site 150 changes over time, a method for allowing the mobile terminal 100 to display the change on the layer of the image 115 through a boundary line is described. Explain.

전술된 단계(650 또는 735)에 있어서, 모바일 단말(100)은 이미지(115)의 레이어에 대해 사용자에 의해 선택된 포인트들을 제1 경계선으로서 마킹하여 표시할 수 있다. In step 650 or 735 described above, the mobile terminal 100 may mark and display points selected by the user for the layer of the image 115 as a first boundary line.

단계(810)에서, 모바일 단말(100)은 이미지(115)가 촬영된 이후에 무인 비행체(110)에 의해 촬영된 대상지(150)의 후속 이미지에 기반하여 생성된, 공공 지도 또는 외부 지도와 매칭되는 후속 레이어를 로딩할 수 있다. 후속 이미지는 이미지(115)가 촬영된 시점 이후에 무인 비행체(110)에 의해 동일한 대상지(150)를 촬영한 이미지일 수 있다. 후속 레이어는 기 생성된 이미지(115)의 레이어와 동일한 방법에 의해 생성될 수 있으므로, 중복되는 설명은 생략한다. In step 810, the mobile terminal 100 is generated based on the subsequent image of the target site 150 photographed by the unmanned aerial vehicle 110 after the image 115 is photographed, matching with a public map or an external map It is possible to load a subsequent layer to be used. The subsequent image may be an image of the same target area 150 by the unmanned aerial vehicle 110 after the point in time when the image 115 is captured. Since the subsequent layer may be generated by the same method as the layer of the previously generated image 115, redundant descriptions are omitted.

단계(820)에서, 모바일 단말(100)은 후속 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다. 예컨대, 모바일 단말(100)은 제1 경계선에 대한 표시를 유지하면서, 기존에 표시된 이미지(115)의 레이어 대신에, 후속 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다.In step 820, the mobile terminal 100 may display a subsequent layer by overlapping it on a public map or an external map. For example, while maintaining the display of the first boundary line, the mobile terminal 100 may display a subsequent layer superimposed on a public map or an external map instead of a layer of the previously displayed image 115.

모바일 단말(100)의 사용자는 후속 레이어와 공공 지도 또는 외부 지도가 중첩된 표시부(230)의 표시 내용과 제1 경계선의 표시를 확인함으로써 대상지(150)의 환경의 변화를 시인할 수 있다. The user of the mobile terminal 100 may visually recognize a change in the environment of the target site 150 by checking the display content of the display unit 230 in which a subsequent layer and a public map or an external map are overlapped and the display of the first boundary line.

한편, 모바일 단말(100)은 후속 레이어가 로딩되어 표시됨에 따라 기존에 표시된 이미지(115)의 레이어는 더 이상 표시되지 않도록 할 수 있다. 사용자는 모바일 단말(100)을 제어함으로써 기존에 표시된 이미지(115)를 선택적으로 표시 또는 비표시로 할 수 있다. 또는, 모바일 단말(100)은 기존에 표시된 이미지(115)의 레이어의 표시를 유지하고 후속 레이어를 더 중첩하여 표시할 수도 있다. Meanwhile, as a subsequent layer is loaded and displayed, the mobile terminal 100 may prevent the layer of the previously displayed image 115 from being displayed any more. By controlling the mobile terminal 100, the user can selectively display or hide the previously displayed image 115. Alternatively, the mobile terminal 100 may maintain the display of the layer of the previously displayed image 115 and display the subsequent layer by further overlapping.

단계(830)에서, 모바일 단말(100)은 표시된 후속 레이어에 대한 (예컨대, 후속 레이어의 적어도 2개의 포인트들에 대한) 모바일 단말(100)의 사용자로부터의 선택을 수신할 수 있다. In step 830, the mobile terminal 100 may receive a selection from the user of the mobile terminal 100 (eg, for at least two points of the subsequent layer) for the indicated subsequent layer.

단계(840)에서, 모바일 단말(100)은 사용자에 의한 선택에 기반하여 새로운 경계선을 마킹할 수 있고, 새로운 경계선을 이전의 경계선(제1 경계선)과 함께 표시할 수 있다. 예컨대, 모바일 단말(100)은 사용자에 의해 선택된 포인트들을 제2 경계선으로서 마킹하여 제1 경계선과 함께 표시할 수 있다. 제2 경계선은 대상지(150)의 후속 이미지에서 식별된 대상지(150)의 환경 변화를 나타내는 경계의 선일 수 있다. In step 840, the mobile terminal 100 may mark a new boundary line based on a selection by the user, and display the new boundary line together with the previous boundary line (first boundary line). For example, the mobile terminal 100 may mark points selected by the user as the second boundary lines and display them together with the first boundary lines. The second boundary line may be a boundary line indicating a change in the environment of the target site 150 identified in a subsequent image of the target site 150.

모바일 단말(100)은 전술된 단계들(810 내지 840)을 더 반복함으로써 추가적인 후속 레이어에 대해 제2 경계선이 표시된 이후의 대상지(150)의 환경 변화를 나타내는 제3 경계선을 마킹하여 표시할 수 있다. The mobile terminal 100 may further repeat the steps 810 to 840 described above to mark and display a third boundary line indicating a change in the environment of the target site 150 after the second boundary line is displayed for an additional subsequent layer. .

전술된 단계들(810 내지 840)의 수행됨으로써, 실시예에서는 시간의 흐름에 따른 대상지(150)의 환경의 변화를 용이하게 식별할 수 있으며, 이러한 환경의 변화와 관련된 측량 데이터를 손쉽게 획득할 수 있다. By performing the above-described steps 810 to 840, in the embodiment, it is possible to easily identify changes in the environment of the target site 150 over time, and it is possible to easily obtain survey data related to such changes in the environment. have.

실시예에서는, 모바일 단말(100)에서 무인 비행체(110)에 의해 촬영된 이미지의 공공 지도 또는 외부 지도에 대한 매칭이 가능하게 되는 바, 서버에서의 불필요한 동작(예컨대, 이미지 정합 프로세스 등) 없이 사용자가 신속하게 대상지(150)의 환경의 변화를 시인할 수 있다. In the embodiment, it is possible to match the image photographed by the unmanned aerial vehicle 110 in the mobile terminal 100 to a public map or an external map, and the user without unnecessary operations (eg, image matching process) in the server It is possible to quickly recognize changes in the environment of the target site 150.

관련하여, 도 12는 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 산불 영역에 대한 측량 데이터를 획득하는 방법을 나타낸다.In relation to this, FIG. 12 illustrates a method of obtaining survey data for a forest fire area by marking and displaying a boundary line over time, according to an example.

도 12를 참조하여 대상지(150)에 산불이 발생한 상황에 있어서, 산불이 퍼져나가는 상황을 경계선들(1210 내지 1230)에 의해 표시하는 방법이 설명된다. Referring to FIG. 12, in a situation in which a forest fire occurs in the target site 150, a method of displaying a situation in which the forest fire is spreading is described by the boundary lines 1210 to 1230.

먼저, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 대상지(150)의 제1 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제1 레이어를 생성할 수 있고, 제1 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제1 레이어를 통해 제1 이미지의 촬영 시점인 제1 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제1 경계선(1210)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제1 경계선(1210)을 표시할 수 있다. First, the mobile terminal 100 may generate a first layer matching a public map or an external map based on the first image of the target site 150 photographed by the unmanned aerial vehicle 110, and the first layer It can be displayed overlaid with public or external maps. The user can check the boundary where the forest fire is spreading at the first time when the first image is captured through the first layer, and mark the boundary as the first boundary line 1210 by manipulating the mobile terminal 100. have. The mobile terminal 100 may display the marked first boundary line 1210.

그 다음으로, 모바일 단말(100)은 제1 시각 이후인 제2 시각에 무인 비행체(110)에 의해 촬영된 대상지(150)의 제2 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제2 레이어를 생성할 수 있고, 제2 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제2 레이어를 통해 제2 이미지의 촬영 시점인 제2 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제2 경계선(1220)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제2 경계선(1220)을 표시할 수 있다. 이 때, 모바일 단말(100)은 제1 경계선(1210)과 제2 경계선(1220)을 함께 표시할 수 있다. Next, the mobile terminal 100 is based on the second image of the target site 150 photographed by the unmanned aerial vehicle 110 at a second time after the first time, a second matched with a public map or an external map. A layer can be created, and the second layer can be displayed by overlapping with a public map or an external map. Through the second layer, the user can check the boundary where the forest fire is spreading at the second time when the second image is captured, and manipulate the mobile terminal 100 to mark the boundary as the second boundary line 1220. have. The mobile terminal 100 may display the marked second boundary line 1220. In this case, the mobile terminal 100 may display the first boundary line 1210 and the second boundary line 1220 together.

그 다음으로, 모바일 단말(100)은 제2 시각 이후인 제3 시각에 무인 비행체(110)에 의해 촬영된 대상지(150)의 제3 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제3 레이어를 생성할 수 있고, 제3 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제3 레이어를 통해 제3 이미지의 촬영 시점인 제3 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제3 경계선(1230)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제3 경계선(1230)을 표시할 수 있다. 이 때, 모바일 단말(100)은 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)을 함께 표시할 수 있다. Next, the mobile terminal 100 is based on the third image of the target site 150 photographed by the unmanned aerial vehicle 110 at a third time after the second time, a third matched with a public map or an external map. A layer can be created, and a third layer can be displayed by overlapping with a public map or an external map. Through the third layer, the user can check the boundary where the forest fire is spreading at the third time when the third image is captured, and manipulate the mobile terminal 100 to mark the boundary as the third boundary line 1230. have. The mobile terminal 100 may display the marked third boundary line 1230. In this case, the mobile terminal 100 may display the first boundary line 1210, the second boundary line 1220, and the third boundary line 1230 together.

이와 같이, 사용자는 제1 시각으로부터 제3 시각으로의 시간의 흐름에 따라, 산불이 얼마나(또한, 어떠한 방향으로) 퍼져나가고 있는지를 경계선들(1210 내지 1230)을 통해 확인할 수 있다.In this way, the user can check how much (and in what direction) the forest fire is spreading through the boundary lines 1210 to 1230 according to the passage of time from the first time to the third time.

또한, 모바일 단말(100)은 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)이 나타내는 좌표에 기반하여, 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)에 의해 결정되는 산불 영역들 각각의 넓이를 계산할 수 있다.In addition, the mobile terminal 100 is based on the coordinates indicated by the first boundary line 1210, the second boundary line 1220, and the third boundary line 1230, the first boundary line 1210, the second boundary line 1220, and the 3 The area of each of the forest fire areas determined by the boundary line 1230 may be calculated.

예컨대, 모바일 단말(100)은 산불 영역(1), 산불 영역(2) 및 산불 영역(3) 중 적어도 하나를 계산할 수 있다. 이에 따라, 사용자는 산불 영역이 시간의 흐름에 따라 넓어지는 정도를 확인할 수 있으다. 또한, 모바일 단말(100)은 산불 영역과 관련한 정확한 위치 좌표(예컨대, 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)의 좌표들 등) 역시 계산할 수 있다. For example, the mobile terminal 100 may calculate at least one of the forest fire area 1, the forest fire area 2, and the forest fire area 3. Accordingly, the user can check the extent to which the forest fire area is widened over time. In addition, the mobile terminal 100 may also calculate exact location coordinates related to the forest fire area (eg, coordinates of the first boundary line 1210, the second boundary line 1220, and the third boundary line 1230).

설명한 실시예는, 산불이 발생한 경우와 같이, 대상지(150)의 환경의 변화를 실시간으로/시간의 흐름에 따라 확인해야 하는 경우에, 이를 가능하게 할 수 있다. The described embodiment may enable this when it is necessary to check changes in the environment of the target site 150 in real time/according to the passage of time, such as when a forest fire occurs.

이상, 도 1 내지 도 7을 참조하여 전술된 기술적 특징은 도 8 및 12에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 7 may be applied to FIGS. 8 and 12 as they are, a duplicate description will be omitted.

도 9는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어를 공공 지도 상에 중첩하여 표시하는 방법을 나타낸다. 9 illustrates a method of superimposing and displaying a layer of an image of an object photographed by an unmanned aerial vehicle on a public map, according to an example.

레이어(910)는 무인 비행체(110)에 의해 대상지(150)를 촬영한 이미지(115)에 기반하여 생성된 전술한 레이어에 대응할 수 있다. The layer 910 may correspond to the above-described layer generated based on the image 115 photographed by the unmanned aerial vehicle 110.

지도(900)는 공공 지도에 해당하는 지적도일 수 있다. 지적도(900) 역시 레이어화되어 모바일 단말(100)에서 표시될 수 있다.The map 900 may be an cadastral map corresponding to a public map. The cadastral map 900 may also be layered and displayed on the mobile terminal 100.

도시된 것처럼, 레이어(910)는 지적도(900) 상에 중첩하여 표시될 수 있고, 소정의 투명도를 가지고 표시될 수 있다.As shown, the layer 910 may be superimposed and displayed on the cadastral map 900, and may be displayed with a predetermined transparency.

이상, 도 1 내지 도 8 및 도 12를 참조하여 전술된 기술적 특징은 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 8 and 12 may be applied to FIG. 9 as they are, a duplicate description will be omitted.

도 10는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어와 공공 지도가 중첩된 상태에서, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다. 10 illustrates a method of acquiring survey data for an infringing place in a state in which a layer of an image of a target site captured by an unmanned aerial vehicle and a public map are overlapped, according to an example.

도 10에서는, 전술된 레이어(910)와 지적도(900)가 중첩하여 표시된 경우에 있어서 침해지를 결정하여, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다. In FIG. 10, a method of obtaining survey data on the infringement location by determining the infringement location in the case where the above-described layer 910 and the cadastral map 900 are overlapped and displayed.

도시된 예시에서는, 지적도의 1-1에 해당하는 영역에 공사/조림/벌채를 수행하는 경우에 있어서, 침해지를 결정하는 방법을 나타낸다. 사용자는 전술된 레이어와 지적도가 중첩된 표시 내용을 확인함으로써, 공사/조림/벌채를 수행한 영역 중 지적도의 1-1에 해당하는 영역을 벗어나는 영역을 확인할 수 있다.In the illustrated example, in the case of performing construction/reforestation/cutting in the area corresponding to 1-1 of the cadastral map, a method of determining the infringement site is shown. By checking the display contents in which the above-described layer and the cadastral map are overlapped, the user can check an area outside the area corresponding to 1-1 of the cadastral map among the areas in which construction/reforestation/ felling has been performed.

모바일 단말(100)은, 사용자로부터의 도시된 레이어에 대한 선택에 기반하여, 상기 공사/조림/벌채를 수행한 영역 중 지적도의 1-1에 해당하는 영역을 벗어나는 영역을 침해지로서 마킹할 수 있다.The mobile terminal 100 may mark an area outside the area corresponding to 1-1 of the cadastral map among the areas where the construction/reforestation/harvesting has been performed as the infringement site, based on the selection of the illustrated layer by the user. have.

모바일 단말(100)은 침해지에 해당하는 영역에 대한 좌표를 획득(또는 계산)할 수 있고, 침해지애 해당하는 영역의 넓이를 계산할 수 있다. The mobile terminal 100 may acquire (or calculate) coordinates for an area corresponding to the infringement site, and may calculate the area of the area corresponding to the infringement site.

침해지에 해당하는 영역에 대한 좌표와 넓이는 측량 데이터로서 모바일 단말(100)의 사용자에게 제공될 수 있다. The coordinates and the area of the area corresponding to the intrusion area may be provided to the user of the mobile terminal 100 as survey data.

도 11a 및 11b는 일 예에 따른, 침해지 및 경계선에 대한 측량 데이터를 획득하는 방법을 나타낸다.11A and 11B illustrate a method of obtaining survey data for an infringement area and a boundary line, according to an example.

도 11a 및 11b에서는 전술된 레이어와 지적도가 중첩하여 표시된 경우가 가정된다. In FIGS. 11A and 11B, it is assumed that the above-described layers and cadastral maps are overlapped and displayed.

도 11a에서 영역(1110)은 공사/조림/벌채를 수행한 영역을 나타낼 수 있다. 경계선(1100)은 특정한 지적의 경계를 나타낼 수 있다. In FIG. 11A, the area 1110 may represent an area where construction/reforestation/removing has been performed. The boundary line 1100 may indicate a boundary of a specific intellectual property.

도시된 것처럼, 사용자는 5개의 포인트들을 레이어로부터 선택할 수 있고, 모바일 단말(100)은 선택된 포인트들에 대한 좌표를 획득할 수 있고, 선택된 포인트들에 의해 생성되는 도형의 넓이를 계산할 수 있다. 모바일 단말(100)은 상기 도형을 침해지로서 마킹할 수 있고, 상기 도형의 넓이를 침해지의 넓이로서 결정할 수 있다.As shown, the user may select five points from the layer, the mobile terminal 100 may obtain coordinates for the selected points, and calculate the area of a figure generated by the selected points. The mobile terminal 100 may mark the figure as an intrusion point, and determine the area of the figure as the intrusion area.

도 11b에서 (점선을 포함하는 원 모양의) 영역(1140)은 공사/조림/벌채를 수행한 영역을 나타낼 수 있다. 경계선(1130)은 특정한 지적의 경계를 나타낼 수 있다. In FIG. 11B, an area 1140 (a circle shape including a dotted line) may represent an area where construction/reforestation/harvesting has been performed. The boundary line 1130 may indicate a boundary of a specific point.

도시된 것처럼, 사용자는 드래그 입력을 통해 레이어로부터 특정한 영역(1150)을 선택할 수 있고, 모바일 단말(100)은 선택된 영역(1150)에 대한 좌표를 획득할 수 있다. 또한, 모바일 단말(100)은 선택된 영역(1150)이 나타내는 도형의 넓이를 계산할 수 있다. 모바일 단말(100)은 상기 도형을 침해지로서 마킹할 수 있고, 상기 도형의 넓이를 침해지의 넓이로서 결정할 수 있다.As shown, the user may select a specific region 1150 from the layer through a drag input, and the mobile terminal 100 may obtain coordinates for the selected region 1150. In addition, the mobile terminal 100 may calculate the area of the figure indicated by the selected area 1150. The mobile terminal 100 may mark the figure as an intrusion point, and determine the area of the figure as the intrusion area.

도 11a 및 도 11b에서, 모바일 단말이 침해지에 해당하는 영역(1120, 1150)의 도형의 길이(즉, 도형을 구성하는 각 선분/곡선의 길이)를 계산할 수 있거나, 해상 도형 상의 좌표를 획득할 수 있음은 물론이다.In FIGS. 11A and 11B, the mobile terminal can calculate the length of the figure (that is, the length of each line segment/curve constituting the figure) of the areas 1120 and 1150 corresponding to the infringement site, or obtain coordinates on the marine figure. Of course you can.

이상, 도 1 내지 도 9 및 도 12를 참조하여 전술된 기술적 특징은 도 10, 도 11a 및 도 11b에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 9 and 12 may be applied to FIGS. 10, 11A, and 11B as they are, so a duplicate description will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and drawings as described above, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in an order different from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

Claims (10)

모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 있어서,
무인 비행체에 의해 촬영된 이미지를 획득하는 단계;
상기 이미지의 중점에 대응하는 중점 좌표를 획득하는 단계;
상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계;
상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계; 및
상기 매칭된 이미지에 대응하는 레이어를 생성하는 단계
를 포함하고,
상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고,
상기 경계점들에 대응하는 좌표들을 계산하는 단계는,
상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하는 단계; 및
상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하는 단계
를 포함하고,
상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수 또는 비율로 분할하는 지점들의 각 지점에 대응하는 좌표를 계산하는 단계
를 더 포함하고,
상기 기 설정된 개수 또는 비율은 상기 모바일 단말의 사용자에 의해, 매칭의 정확도를 나타내는 정보로서 기 설정되고,
상기 각 지점에 대응하는 좌표를 계산하는 단계는,
상기 기 설정된 개수 또는 비율에 기반하여, 상기 중점을 동심으로 하는 복수의 가상의 도형들을 생성하는 단계;
상기 가상의 도형들의 꼭지점들의 각각을 상기 좌표를 계산하는 대상인 상기 각 지점으로서 결정하는 단계 - 상기 가상의 도형들의 꼭지점들의 각각은 상기 이미지의 중점과 상기 이미지의 꼭지점들을 연결한 선을, 동일한 간격으로 상기 기 설정된 개수 또는 비율로 분할한 지점들의 각각에 대응함 -;
상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하는 단계; 및
상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하는 단계
를 포함하고,
상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.
In a method for matching an image of a target site taken by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing or a satellite photo,
Obtaining an image photographed by the unmanned aerial vehicle;
Acquiring a center point coordinate corresponding to the center point of the image;
Calculating coordinates corresponding to boundary points including vertices of the image based on the pixel information of the image and the midpoint coordinates;
Matching the image with the map, drawing, or satellite image by matching the calculated coordinates with the coordinates of a map, a drawing or a satellite photo; And
Generating a layer corresponding to the matched image
Including,
The pixel information includes information on an area indicated by a pixel of the image in a coordinate system of the map, drawing, or satellite photo,
Computing the coordinates corresponding to the boundary points,
Calculating a pixel distance from a pixel of the image corresponding to the central coordinate to a pixel corresponding to each boundary point of the boundary points; And
Calculating coordinates of the boundary points based on the central coordinates, information on the area, and the calculated pixel distance
Including,
Calculating coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number or ratio
Including more,
The preset number or ratio is preset by the user of the mobile terminal as information indicating the accuracy of matching,
Computing the coordinates corresponding to each point,
Generating a plurality of virtual figures having the center point concentric based on the preset number or ratio;
Determining each of the vertices of the virtual figures as the respective points to which the coordinates are to be calculated-Each of the vertices of the virtual figures is a line connecting the midpoint of the image and the vertices of the image at equal intervals. Corresponding to each of the points divided by the preset number or ratio -;
Calculating a pixel distance from a pixel of the image corresponding to the central coordinate to a pixel of the image corresponding to each point; And
Calculating the coordinates of each point based on the center point coordinates, information on the area, and a pixel distance to a pixel of the image corresponding to each point
Including,
The step of matching the image with the map, drawing, or satellite photograph includes matching the coordinates of each point with the coordinates of the map, drawing, or satellite photograph, thereby matching the image with the map, drawing, or satellite photograph. To match maps, drawings or satellite images.
삭제delete 삭제delete 제1항에 있어서,
상기 이미지를 획득하는 단계는,
상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들을 획득하고,
상기 중점 좌표를 획득하는 단계, 상기 경계점들에 대응하는 좌표들을 계산하는 단계, 및 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는 상기 복수의 이미지들 각각에 대해 수행되는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.
The method of claim 1,
The step of obtaining the image,
Acquiring a plurality of images photographed by the unmanned aerial vehicle flying a path including a plurality of waypoints on the target site,
The step of obtaining the focus coordinates, calculating the coordinates corresponding to the boundary points, and matching the image with the map, drawing or satellite image are performed for each of the plurality of images. , How to match against drawings or satellite photos.
제4항에 있어서,
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고,
상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들에 대한 픽셀 정합 이미지를 생성하기 위해, 상기 복수의 이미지들은 서버로 전달되어 정합되고,
상기 정합은 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 상기 픽셀 정합 이미지를 생성하는 것이고,
상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합은, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행되는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.
The method of claim 4,
The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, each of the plurality of images is taken of a part of the target site,
According to the control of the mobile terminal, in order to generate a pixel-matched image for the plurality of images, the plurality of images are transmitted to and matched to a server,
The matching is to generate one pixel matching image by pixel matching the plurality of images,
The pixel matching of the first image among the plurality of images and the second image adjacent to the first image is performed by the performance of the mobile terminal or the server or the overlapping portion of the first image and the second image. Matching an image to a map, a drawing, or a satellite photograph, performed by comparing the pixels of the first image and the pixels of the second image only for the remaining portions except for a portion of the predetermined ratio by the user of the mobile terminal Way.
제1항에 있어서,
상기 이미지에 대응하여 생성된 레이어를 상기 지도, 도면 또는 위성 사진 상에서 중첩하여 표시하는 단계
를 더 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.
The method of claim 1,
Superimposing and displaying a layer generated corresponding to the image on the map, drawing, or satellite image
A method for matching the image to a map, a map, or a satellite image further comprising a.
제6항에 있어서,
상기 표시된 레이어의 적어도 2개의 포인트들에 대한 상기 모바일 단말의 사용자로부터의 선택을 수신하는 단계; 및
상기 선택에 의해 생성된 상기 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산하는 단계
를 더 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.
The method of claim 6,
Receiving a selection from a user of the mobile terminal for at least two points of the displayed layer; And
Calculating at least one of a length and a width of a figure on the layer generated by the selection
A method for matching the image to a map, a map, or a satellite image further comprising a.
제1항 및 제4항 내지 제7항 중 어느 한 항의 방법을 수행하는 컴퓨터 판독 가능 기록 매체에 기록된 프로그램.A program recorded on a computer-readable recording medium that performs the method of any one of claims 1 and 4 to 7. 모바일 단말에 의해 구현되는 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치에 있어서,
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
무인 비행체에 의해 촬영된 이미지를 획득하고, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하고, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하고, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키고,
상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고,
상기 적어도 하나의 프로세서는,
상기 경계점들에 대응하는 좌표들을 계산함에 있어서, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하고, 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하고,
상기 적어도 하나의 프로세서는, 상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수 또는 비율로 분할하는 지점들의 각 지점에 대응하는 좌표를 더 계산하되,
상기 기 설정된 개수 또는 비율은 상기 모바일 단말의 사용자에 의해, 매칭의 정확도를 나타내는 정보로서 기 설정되고,
상기 각 지점에 대응하는 좌표를 계산함에 있어서, 상기 기 설정된 개수 또는 비율에 기반하여, 상기 중점을 동심으로 하는 복수의 가상의 도형들을 생성하고, 상기 가상의 도형들의 꼭지점들의 각각을 상기 좌표를 계산하는 대상인 상기 각 지점으로서 결정하고, 상기 가상의 도형들의 꼭지점들의 각각은 상기 이미지의 중점과 상기 이미지의 꼭지점들을 연결한 선을, 동일한 간격으로 상기 기 설정된 개수 또는 비율로 분할한 지점들의 각각에 대응하고, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하고, 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하고,
상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭함에 있어서, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치.
In the apparatus for matching an image of a target site captured by an unmanned aerial vehicle implemented by a mobile terminal with a map, drawing, or satellite photo,
At least one processor implemented to execute computer-readable instructions
Including,
The at least one processor,
Coordinates corresponding to boundary points including vertices of the image based on pixel information and the central coordinates of acquiring an image photographed by an unmanned aerial vehicle, acquiring a central coordinate corresponding to the central point of the image, and Calculation, and matching the calculated coordinates with the coordinates of a map, a drawing or a satellite picture, thereby matching the image with the map, a drawing or a satellite picture,
The pixel information includes information on an area indicated by a pixel of the image in a coordinate system of the map, drawing, or satellite photo,
The at least one processor,
In calculating coordinates corresponding to the boundary points, a pixel distance from a pixel of the image corresponding to the center point to a pixel corresponding to each boundary point of the boundary points is calculated, and the center point coordinate, information on the area, and Compute the coordinates of each boundary point based on the calculated pixel distance,
The at least one processor further calculates coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number or ratio,
The preset number or ratio is preset by the user of the mobile terminal as information indicating the accuracy of matching,
In calculating the coordinates corresponding to each point, based on the preset number or ratio, a plurality of virtual figures having the center point concentric are generated, and the coordinates are calculated for each of the vertices of the virtual figures Each point of the virtual figure is determined as the target point, and each of the vertices of the virtual figures corresponds to a line connecting the midpoint of the image and the vertices of the image at equal intervals and divided by the preset number or ratio. And calculating a pixel distance from a pixel of the image corresponding to the center point coordinate to a pixel of the image corresponding to each point, and the center point coordinate, information about the area, and the image corresponding to each point. Compute the coordinates of each point based on the pixel distance to the pixel,
In matching the image with the map, drawing, or satellite photo, the image is matched with the map, drawing or satellite photo by matching the coordinates of each point with the coordinates of the map, drawing or satellite photo. Devices that match against maps, drawings or satellite images.
제9항에 있어서,
상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들이 획득되고,
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고,
상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들에 대한 픽셀 정합 이미지를 생성하기 위해, 상기 복수의 이미지들을 수신하여 정합하는 서버
를 더 포함하고,
상기 서버는 상기 정합을 통해 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 상기 픽셀 정합 이미지를 생성하고,
상기 서버는, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합을, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치.
The method of claim 9,
A plurality of images photographed by the unmanned aerial vehicle flying on a path including a plurality of waypoints on the target site are acquired,
The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, each of the plurality of images is taken of a part of the target site,
A server that receives and matches the plurality of images to generate a pixel matched image for the plurality of images under control of the mobile terminal
Including more,
The server generates one pixel matching image by pixel matching the plurality of images through the matching,
The server performs the pixel matching of the first image among the plurality of images and the second image adjacent to the first image, and the performance of the mobile terminal among the overlapping portions of the first image and the second image. Alternatively, the image is performed by comparing the pixels of the first image and the pixels of the second image only for the remaining portions except for a portion of the predetermined ratio by the server or the user of the mobile terminal, and the image is converted to a map, drawing or satellite image Device to match against.
KR1020200011269A 2020-01-30 2020-01-30 Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image KR102154950B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200011269A KR102154950B1 (en) 2020-01-30 2020-01-30 Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200011269A KR102154950B1 (en) 2020-01-30 2020-01-30 Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image

Publications (1)

Publication Number Publication Date
KR102154950B1 true KR102154950B1 (en) 2020-09-10

Family

ID=72450396

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200011269A KR102154950B1 (en) 2020-01-30 2020-01-30 Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image

Country Status (1)

Country Link
KR (1) KR102154950B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114115363A (en) * 2021-12-04 2022-03-01 中国人民解放军国防科技大学 Multi-unmanned aerial vehicle unknown indoor space exploration method based on dynamic target tracking
WO2022145549A1 (en) * 2020-12-31 2022-07-07 주식회사 드론오렌지 Bidirectional augmented reality platform using drone space information
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR20220169342A (en) * 2021-06-18 2022-12-27 이재영 Drone used 3d mapping method
CN115861591A (en) * 2022-12-09 2023-03-28 南京航空航天大学 Unmanned aerial vehicle positioning method based on transform key texture coding matching
JP7375066B2 (en) 2021-03-02 2023-11-07 ネイバーラボス コーポレーション Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircraft

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101854181B1 (en) * 2017-10-20 2018-05-04 이병섭 Target search system using an unmanned aerial vehicle
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101854181B1 (en) * 2017-10-20 2018-05-04 이병섭 Target search system using an unmanned aerial vehicle
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145549A1 (en) * 2020-12-31 2022-07-07 주식회사 드론오렌지 Bidirectional augmented reality platform using drone space information
JP7375066B2 (en) 2021-03-02 2023-11-07 ネイバーラボス コーポレーション Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircraft
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR102525519B1 (en) 2021-05-24 2023-04-24 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR102567800B1 (en) 2021-06-10 2023-08-16 이재영 Drone used 3d mapping method
KR20220169342A (en) * 2021-06-18 2022-12-27 이재영 Drone used 3d mapping method
KR102567799B1 (en) 2021-06-18 2023-08-16 이재영 Drone used 3d mapping method
CN114115363A (en) * 2021-12-04 2022-03-01 中国人民解放军国防科技大学 Multi-unmanned aerial vehicle unknown indoor space exploration method based on dynamic target tracking
CN115861591A (en) * 2022-12-09 2023-03-28 南京航空航天大学 Unmanned aerial vehicle positioning method based on transform key texture coding matching
CN115861591B (en) * 2022-12-09 2024-02-02 南京航空航天大学 Unmanned aerial vehicle positioning method based on transformer key texture coding matching

Similar Documents

Publication Publication Date Title
KR102154950B1 (en) Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image
KR102129408B1 (en) Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
US10339663B2 (en) Generating georeference information for aerial images
KR102003187B1 (en) Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
KR101797006B1 (en) Land research system using drones and method thereof
Yahyanejad et al. Incremental mosaicking of images from autonomous, small-scale uavs
RU2741443C1 (en) Method and device for sampling points selection for surveying and mapping, control terminal and data storage medium
KR102269792B1 (en) Method and apparatus for determining altitude for flying unmanned air vehicle and controlling unmanned air vehicle
Rijsdijk et al. Unmanned aerial systems in the process of juridical verification of cadastral border
US9460554B2 (en) Aerial video annotation
US10733777B2 (en) Annotation generation for an image network
CN110703805B (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
Bevilacqua et al. Digital technology and mechatronic systems for the architectural 3D metric survey
George et al. Towards drone-sourced live video analytics for the construction industry
KR20210102889A (en) Planning method, apparatus, control terminal and storage medium of survey and mapping sample points
JP7220784B2 (en) Survey sampling point planning method, device, control terminal and storage medium
JP2020091640A (en) Object classification system, learning system, learning data generation method, learned model generation method, learned model, discrimination device, discrimination method, and computer program
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
KR102364615B1 (en) Method and apparatus for determining route for flying unmanned air vehicle and controlling unmanned air vehicle
KR102366947B1 (en) METHOD AND APPARATUS FOR CONTROLLING UNMANNED AIR VEHICLE ON WHICH LiDAR IS MOUNTED
KR102364614B1 (en) Method and apparatus for determining group flight route for group flying unmanned air vehicles and controlling unmanned air vehicles
KR20210106422A (en) Job control system, job control method, device and instrument
CN115460539A (en) Method, device, medium and program product for acquiring electronic fence

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant