KR102154950B1 - Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image - Google Patents
Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image Download PDFInfo
- Publication number
- KR102154950B1 KR102154950B1 KR1020200011269A KR20200011269A KR102154950B1 KR 102154950 B1 KR102154950 B1 KR 102154950B1 KR 1020200011269 A KR1020200011269 A KR 1020200011269A KR 20200011269 A KR20200011269 A KR 20200011269A KR 102154950 B1 KR102154950 B1 KR 102154950B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- map
- matching
- coordinates
- pixel
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 52
- 238000012545 processing Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 14
- 238000010276 construction Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000007480 spreading Effects 0.000 description 5
- 230000006855 networking Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003306 harvesting Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
실시예들은 무인 비행체에 의해 촬영된 대상지의 이미지(들)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 관한 것으로, 특히, 촬영된 이미지(들)를 정합하는 복잡한 프로세스를 수행하지 않고, 이미지를 지오 처리하는 것을 통해 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 관한 것이다. The embodiments relate to a method of matching the image(s) of a target area photographed by an unmanned aerial vehicle to a map, a drawing or a satellite photograph, and in particular, without performing a complicated process of matching the photographed image(s), an image It relates to a method of matching an image to a map, drawing or satellite image through geoprocessing.
측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다. 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. Surveying is an indispensable task in constructing buildings or facilities. In surveying a target site (eg, a commercial site), there are cases in which a person may not be able to directly measure at least a part of the survey target site due to environmental or geographic factors of the survey target site. In this case, a survey may be made on the survey target using an unmanned aerial vehicle such as a drone. By utilizing an image (photo) of a survey target taken using an unmanned aerial vehicle for surveying, surveying may be possible even in an area that cannot be directly surveyed by a person on the survey target.
무인 비행체를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체에 의해 촬영된 이미지들은 이미지 각각 간의, 예컨대, 픽셀 정합과 같은, 복잡한 정합 프로세스를 통해 하나의 이미지(정합 이미지)로서 정합된다. 정합 이미지는 지도, 도면 또는 위성 사진에 대해 매칭되어 활용된다. In the case of performing surveying using an unmanned aerial vehicle, the images captured by the unmanned aerial vehicle are matched between each of the images, for example, as a single image (matched image) through a complex matching process, such as pixel matching. The matched image is matched and used for maps, drawings or satellite photos.
촬영된 이미지들을 정합하는 이러한 정합 프로세스는 일반적으로 많은 연산을 요구하고, 이러한 연산은 촬영된 이미지들의 수가 증가하거나 이미지의 해상도가 높아질수록 현저하게 증가하게 된다. 촬영된 이미지들에 대한 정합 프로세스는 촬영된 이미지에 대해 실시간으로 수행되거나 모바일 단말을 통해 수행될 수는 없으며, 고성능의 PC나 기타 컴퓨팅 장치를 통해서만 많은 시간을 소요하여 수행될 수 있다. This matching process of matching the captured images generally requires a lot of operations, and this operation increases significantly as the number of captured images increases or the resolution of the image increases. The matching process for the captured images cannot be performed in real time or through a mobile terminal on the captured images, and may be performed only through a high-performance PC or other computing device, taking a long time.
따라서, 고성능의 PC를 사용하지 않고, 모바일 단말을 사용하는 것만으로도 단시간에 촬영된 이미지들을 지오 처리하여 이미지로부터 정확한 위치 정보를 획득하고, 지오 처리된 이미지를 레이어화하여 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법이 요구된다. 또한, 레이어화된 이미지를 공공 지도 또는 외부 지도(상용 지도)에 매칭시켜 대상지에 대한 측량 데이터를 손쉽게 획득할 수 있도록 하는 방법이 요구된다.Therefore, without using a high-performance PC, geo-processing images captured in a short time by using a mobile terminal to obtain accurate location information from the images, layering the geo-processed images to map, drawings, or satellite photos A method of matching against is required. In addition, there is a need for a method of matching a layered image to a public map or an external map (commercial map) to easily obtain survey data on a target site.
한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Patent Registration No. 10-1532582 (registration date June 24, 2015) relates to a method of processing cadastral survey data, and each parcel is for the purpose of registering land for land study or restoring the boundary registered for cadastral study on the surface. Disclosed is a method for processing cadastral survey data that enables efficient and systematic maintenance and management of cadastral survey data obtained when setting a reference point for surveying the boundary or area of a site.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only, may include content that does not form part of the prior art, and may not include what the prior art may present to a person skilled in the art.
일 실시예는, 모바일 단말에 의해 수행되는 방법으로서, 무인 비행체에 의해 촬영된 이미지를 획득하고, 해당 이미지의 픽셀 정보 및 중점 좌표에 기반하여, 이미지의 경계점들에 대응하는 좌표들을 계산하고, 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시켜 매칭된 이미지에 대응하는 레이어를 생성함으로써, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 제공할 수 있다. In one embodiment, as a method performed by a mobile terminal, an image photographed by an unmanned aerial vehicle is obtained, based on pixel information and center coordinates of the image, coordinates corresponding to boundary points of the image are calculated, and the calculation By creating a layer corresponding to the matched image by matching the coordinates with the coordinates of the map, drawing, or satellite photo, we will provide a method of matching the image of the target area captured by the unmanned aerial vehicle with a map, drawing, or satellite photo. I can.
일 측면에 있어서, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법에 있어서, 무인 비행체에 의해 촬영된 이미지를 획득하는 단계, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하는 단계, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계 및 상기 매칭된 이미지에 대응하는 레이어를 생성하는 단계를 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법이 제공된다. In one aspect, in a method for matching an image of a target site captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph, the method comprising: acquiring an image captured by the unmanned aerial vehicle, the image Acquiring a central point coordinate corresponding to the central point of the image, calculating coordinates corresponding to boundary points including vertices of the image, based on the pixel information of the image and the central point coordinate, the calculated coordinates and the map , By matching coordinates of a drawing or a satellite picture, matching the image with the map, drawing or satellite picture, and generating a layer corresponding to the matched image, the image as a map, drawing or satellite picture A method of matching against is provided.
상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고, 상기 경계점들에 대응하는 좌표들을 계산하는 단계는, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하는 단계 및 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하는 단계를 포함할 수 있다. The pixel information includes information on an area of one pixel of the image indicated in the coordinate system of the map, drawing, or satellite photo, and calculating coordinates corresponding to the boundary points may include the Computing a pixel distance from a pixel of the image to a pixel corresponding to each boundary point of the boundary points, and calculating the coordinates of each boundary point based on the midpoint coordinate, the area information, and the calculated pixel distance. Can include.
상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수로 분할하는 지점들의 각 지점에 대응하는 좌표를 계산하는 단계를 더 포함하고, 상기 각 지점에 대응하는 좌표를 계산하는 단계는, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하는 단계 및 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하는 단계를 포함하고, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. The method of matching the image with a map, a drawing, or a satellite photo further includes calculating coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number, wherein each The calculating of the coordinates corresponding to the point includes: calculating a pixel distance from the pixel of the image corresponding to the central point to the pixel of the image corresponding to the point, and information on the central point coordinate and the area And calculating coordinates of each point based on a pixel distance to a pixel of the image corresponding to each point, wherein the step of matching the image with the map, drawing, or satellite image comprises: the each point By matching the coordinates of the map, the map, or the satellite picture, the image may be matched with the map, drawing, or satellite picture.
상기 이미지를 획득하는 단계는, 상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들을 획득하고, 상기 중점 좌표를 획득하는 단계, 상기 경계점들에 대응하는 좌표들을 계산하는 단계, 및 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는 상기 복수의 이미지들 각각에 대해 수행될 수 있다. The obtaining of the image includes obtaining a plurality of images photographed by the unmanned aerial vehicle flying a path including a plurality of waypoints on the target site, obtaining the central coordinates, corresponding to the boundary points Calculating the coordinates, and matching the image with the map, drawing, or satellite image may be performed for each of the plurality of images.
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고, 상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들은 서버로 전달되어 정합되고, 상기 정합은 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 이미지를 생성하는 것이고, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합은, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행될 수 있다.The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, and each of the plurality of images is taken of a part of the target site, and according to the control of the mobile terminal, the plurality of images are sent to the server. Transmitted and matched, and the matching is to generate one image by pixel matching the plurality of images, and the pixel matching for a first image and a second image adjacent to the first image among the plurality of images is , The pixels of the first image and the remaining portions of the overlapping portions of the first image and the second image except for a portion of the performance of the mobile terminal or a ratio preset by the server or the user of the mobile terminal. This can be done by comparing the pixels of the second image.
상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 이미지에 대응하여 생성된 레이어를 상기 지도, 도면 또는 위성 사진 상에서 중첩하여 표시하는 단계를 더 포함할 수 있다. The method of matching the image to a map, a drawing, or a satellite photograph may further include displaying a layer generated corresponding to the image by overlapping it on the map, drawing, or satellite photograph.
상기 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법은 상기 표시된 레이어의 적어도 2개의 포인트들에 대한 상기 모바일 단말의 사용자로부터의 선택을 수신하는 단계 및 상기 선택에 의해 생성된 상기 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산하는 단계를 더 포함할 수 있다. The method of matching the image to a map, a drawing, or a satellite photograph includes receiving a selection from a user of the mobile terminal for at least two points of the displayed layer, and of the figure on the layer generated by the selection. It may further include calculating at least one of the length and the width.
다른 일 측면에 있어서, 모바일 단말에 의해 구현되는 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 무인 비행체에 의해 촬영된 이미지를 획득하고, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하고, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하고, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치가 제공된다. In another aspect, in an apparatus for matching an image of a target site captured by an unmanned aerial vehicle implemented by a mobile terminal with a map, drawing, or satellite photograph, at least one processor implemented to execute a computer-readable command Including, wherein the at least one processor, acquires an image photographed by the unmanned aerial vehicle, acquires a central point coordinates corresponding to the central point of the image, and based on the pixel information and the central point coordinates of the image, the image By calculating coordinates corresponding to boundary points including the vertices of the map, and matching the calculated coordinates with the coordinates of a map, a drawing or a satellite photograph, the image is matched with the map, drawing, or satellite image. , A device for matching against a drawing or a satellite image is provided.
또 다른 일 측면에 있어서, 상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들이 획득되고, 상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고, 상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들을 정합하는 서버를 더 포함하고, 상기 서버는 상기 정합을 통해 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 이미지를 생성하고, 상기 서버는, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합을, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 시스템이 제공된다. In another aspect, a plurality of images photographed by the unmanned aerial vehicle flying on a path including a plurality of waypoints on the target site are acquired, and the plurality of images have a predetermined photo redundancy rate. It is photographed, and each of the plurality of images is a photograph of a part of the target area, further comprising a server for matching the plurality of images according to the control of the mobile terminal, the server through the matching An image is generated by pixel matching images of, and the server performs the pixel matching of the first image among the plurality of images and a second image adjacent to the first image, the first image and the The pixels of the first image and the pixels of the second image are selected only for the remaining portions of the overlapping portion of the second image, excluding the performance of the mobile terminal or a portion of the ratio preset by the server or the user of the mobile terminal. A system is provided for matching images to maps, drawings or satellite photographs, performing by comparing.
무인 비행체에 의해 촬영된 대상지의 이미지들에 대해, 복잡한 연산/많은 소요 시간을 요구하는 픽셀 정합을 수행하지 않고, 각각의 이미지를 지오 처리하여 위치 정보를 획득하고, 지오 처리된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시켜, 지도, 도면 또는 위성 사진에 매칭되는 레이어를 생성할 수 있다. For the images of the target area captured by the unmanned aerial vehicle, without performing complex calculations/pixel matching that requires a lot of time required, each image is geo-processed to obtain location information, and the geo-processed image is mapped to a drawing. Alternatively, a layer matching a map, a map, or a satellite image may be generated by matching the satellite image.
따라서, 무인 비행체에 의해 촬영된 이미지들에 대한 외부의 고성능의 PC에서의 작업 없이 해당 이미지들을 획득한 모바일 단말에서 바로, 지도, 도면 또는 위성 사진에 매칭되는 레이어를 생성할 수 있고, 사용자는 생성된 레이어를 통해 무인 비행체로부터 촬영된 이미지와 지도, 도면 또는 위성 사진을 용이하게 비교할 수 있다.Therefore, it is possible to create a layer matching the map, drawing, or satellite photo directly from the mobile terminal that acquired the images without working on an external high-performance PC for the images captured by the unmanned aerial vehicle, and the user can create It is possible to easily compare images taken from unmanned aerial vehicles with maps, drawings or satellite photos through the created layers.
도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 모바일 단말과, 모바일 단말과 통신하는 서버 및 무인 비행체를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른, 이미지의 내부 지점들/경계점들의 좌표를 계산하는 방법을 나타내는 흐름도이다.
도 5a는 일 예에 따른, 이미지들을 픽셀 정합하는 방법을 나타내고, 도 5b는 일 예에 따른, 이미지들을 간편 정합하는 방법을 나타낸다.
도 5c는 일 예에 따른, 이미지에 대한 정합 프로세스 없이, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타낸다.
도 6은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지에 기반한 레이어로부터 측량 데이터를 획득하는 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 측량 데이터를 획득하는 방법을 나타낸다.
도 9는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어를 공공 지도 상에 중첩하여 표시하는 방법을 나타낸다.
도 10는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어와 공공 지도가 중첩된 상태에서, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다.
도 11a 및 11b는 일 예에 따른, 침해지 및 경계선에 대한 측량 데이터를 획득하는 방법을 나타낸다.
도 12는 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 산불 영역에 대한 측량 데이터를 획득하는 방법을 나타낸다.1 illustrates a method of processing target image images captured by an unmanned aerial vehicle, according to an exemplary embodiment.
FIG. 2 is a block diagram illustrating a mobile terminal processing target image images captured by an unmanned aerial vehicle, a server communicating with the mobile terminal, and an unmanned aerial vehicle according to an exemplary embodiment.
3 is a flowchart illustrating a method of matching an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph according to an exemplary embodiment.
4 is a flowchart illustrating a method of calculating coordinates of internal points/boundary points of an image, according to an exemplary embodiment.
FIG. 5A illustrates a method of pixel matching images according to an example, and FIG. 5B illustrates a method of simply matching images according to an example.
5C illustrates a method of matching an image to a map, a drawing or a satellite photograph without a matching process for the image, according to an example.
6 is a flowchart illustrating a method of acquiring survey data from a layer based on an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, according to an exemplary embodiment.
7 is a flowchart illustrating a method of obtaining survey data according to a selection from a user, according to an example.
8 illustrates a method of obtaining survey data by marking and displaying a boundary line over time, according to an example.
9 illustrates a method of superimposing and displaying a layer of an image of an object photographed by an unmanned aerial vehicle on a public map, according to an example.
10 illustrates a method of acquiring survey data for an infringing place in a state in which a layer of an image of a target site captured by an unmanned aerial vehicle and a public map are overlapped, according to an example.
11A and 11B illustrate a method of obtaining survey data for an infringement area and a boundary line, according to an example.
12 illustrates a method of obtaining survey data for a forest fire area by marking and displaying a boundary line over time, according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.
도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 방법을 나타낸다. 1 illustrates a method of processing target image images captured by an unmanned aerial vehicle, according to an exemplary embodiment.
도 1을 참조하여, 무인 비행체(110)를 사용하여 측량 등을 수행하기 위해 대상지(150)를 촬영하는 경우에 있어서, 무인 비행체(110)에 의해 촬영된 대상지(150)(예컨대, 측량 대상지)의 이미지들(115)을 처리하는 방법에 대해 설명한다. Referring to FIG. 1, in the case of photographing the
무인 비행체(110)로부터의 이미지들(115)은 소정의 정합 프로세스에 의해 정합 이미지로서 변환되거나(또한, 변환 후 지도, 도면 또는 위성 사진에 대해 매칭되거나), 각 이미지(115)에 대한 지오 처리를 통해 지도, 도면 또는 위성 사진에 대해 매칭될 수 있다. The
대상지(150)는 상업지, 건축 예정지 등을 비롯한 측량의 대상(또는, 무인 비행체(110)의 촬영의 대상)이 되는 구역(토지의 구역)을 나타낼 수 있다. The
도시된 무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 대상지(150) 상의 소정의 경로를 비행하면서 대상지(150)를 촬영할 수 있다. 촬영된 대상지(150)의 복수의 이미지들(115)은 모바일 단말(100) 및/또는 서버(120)로 전달될 수 있고, 모바일 단말(100) 및/또는 서버(120)는 획득된 복수의 이미지들(115)을 처리할 수 있다. The illustrated unmanned
서버(120)는 무인 비행체(110)로부터 이미지들(115)을 직접 획득하거나, 모바일 단말(100)을 경유하여 획득할 수 있다. The
실시예에서는, 모바일 단말(100)은 무인 비행체(110)로부터 이미지들(115)을 획득할 수 있고, 획득된 이미지들(115)의 각각에 대해 지오 처리를 수행할 수 있다. "지오 처리"는 각 이미지(115)를 분석하여 해당 이미지(115)로부터 위치 정보(좌표)를 획득하는 프로세스일 수 있다. 모바일 단말(100)은 이미지들(115)의 각각에 대해 지오 처리를 통해 위치 정보를 획득할 수 있고, 이러한 지오 처리된 이미지들(115)을 지도, 도면 또는 위성 사진에 대해 매칭시킬 수 있다.In an embodiment, the
"지도"는 외부 지도 및/또는 공공 지도를 포함할 수 있다. 외부 지도는 지도 서비스 제공 어플리케이션과 같은 외부 어플리케이션으로부터 제공되는 지도(예컨대, 다음(DAUM) 지도, 구글(Google) 지도 또는 네이버(NAVER) 지도 등)일 수 있다. 공공 지도는 공공 지도는 지적도, 용도지적도, 용도구역도, 택지개발지구도, 행정구역도, 수자원 관리도, 국가교통정보도 및 개발행위 허가도 중 적어도 하나를 포함할 수 있다.“Map” may include external maps and/or public maps. The external map may be a map provided from an external application such as a map service providing application (eg, a DAUM map, a Google map, or a NAVER map). Public maps Public maps may include at least one of a cadastral map, a use cadastral map, a use zone map, a housing site development district map, an administrative district map, a water resource management map, a national traffic information map, and a development permission map.
"도면"은 건축물 또는 시설물의 설계 및 건축을 위한 설계 도면일 수 있다. 예컨대, 도면은 dxf 형식의 도면이거나, 기타 다른 형식의 도면일 수 있다."Drawing" may be a design drawing for design and construction of a building or facility. For example, the drawing may be a drawing in dxf format, or a drawing in another format.
"위성 사진"은 위성에 의해 촬영된 이미지일 수 있다. 위성 사진은 지도 서비스 제공 어플리케이션을 통해 제공되는 것일 수 있다.The "satellite photograph" may be an image taken by a satellite. The satellite picture may be provided through a map service providing application.
이와 같은, 전술한 지도, 도면 또는 위성 사진은 좌표(좌표 정보)를 포함할 수 있다. Such, the above-described map, drawing, or satellite picture may include coordinates (coordinate information).
모바일 단말(100)은 지오 처리된 이미지들(115)의 좌표와 지도, 도면 또는 위성 사진은 좌표를 매칭시킴으로써, 이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시킬 수 있다. The
따라서, 실시예에서는, 서버(120)나 기타 고성능 PC에서의 이미지들(115)에 대한 정합 프로세스의 수행 없이도 이미지들(115)을 지도, 도면 또는 위성 사진에 대해 매칭시킬 수 있다. 이로서, 모바일 단말(100)의 사용자는 무인 비행체(110)에 의해 촬영된 현재의 대상지(150)에 대한 이미지들(115)과 지도, 도면 또는 위성 사진을 직관적으로 비교할 수 있다. Accordingly, in an embodiment, the
한편, 서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들(115)을 획득하여 이미지들(115)을 처리할 수 있다. 서버(120)는 획득된 이미지들(115)을 정합(예컨대, 픽셀 정합)함으로써 정합 이미지를 생성할 수 있다.Meanwhile, the
이러한 서버(120)에 의한 이미지들(115)의 처리는 모바일 단말(100)에 의한 제어 또는 요청에 의해 수행될 수 있다. The processing of the
이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시키는 구체적인 방법과, 서버(120)에 의한 정합 프로세스의 상세한 내용에 대해서는 후술될 도 2 내지 도 5c를 참조하여 더 자세하게 설명한다. A detailed method of matching the
도 2는 일 실시예에 따른, 무인 비행체에 의해 촬영된 대상지 이미지들을 처리하는 모바일 단말과, 모바일 단말과 통신하는 서버 및 무인 비행체를 나타내는 블록도이다. FIG. 2 is a block diagram illustrating a mobile terminal processing target image images captured by an unmanned aerial vehicle, a server communicating with the mobile terminal, and an unmanned aerial vehicle according to an exemplary embodiment.
도 2를 참조하여, 무인 비행체(110), 서버(120) 및 모바일 단말(100)의 구체적인 구성들이 설명된다. With reference to FIG. 2, specific configurations of the unmanned
도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 대상지(150)를 비행하여 대상지(150)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 일례로, 무인 비행체(110)는 플러그인 DGPS 드론 또는 플러그인 RTK 드론일 수 있다. As described above with reference to FIG. 1, the unmanned
무인 비행체(110)는 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말로서 모바일 단말(100)일 수 있음)을 통해 소정의 경로를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 대상지(150)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. The unmanned
무인 비행체(110)는 경로 상의 각 웨이 포인트에서 대상지(150)를 촬영할 수 있다. 이 때, 촬영된 이미지(115)의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The unmanned
웨이 포인트는 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표)는 기지의 값일 수 있다. 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 촬영된 이미지(115)의 중점이 될 수 있다. 촬영된 이미지(115)의 중점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a location designated on the map, and its location information (eg, coordinates) may be a known value. The position at which the unmanned
무인 비행체(110)는 통신부, 카메라, 프로세서 및 저장부를 포함할 수 있다. The unmanned
통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be a configuration for the unmanned
무인 비행체(110)는 통신부를 통해 모바일 단말(100) 또는 서버(120)와 통신하거나, 이들에게 촬영된 이미지들(115)을 전송할 수 있다.The unmanned
프로세서는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. The processor may manage the components of the unmanned
카메라는 비행 중에 대상지(150)를 촬영하기 위한 장치일 수 있다. 카메라는 대상지(150)를 촬영함으로써 이미지(115)(이미지 파일)을 생성할 수 있다. 카메라는 CCD를 포함할 수 있고, 이미지(115)의 해상도는 CCD의 픽셀 크기(화소 크기)에 의해 결정될 수 있다. The camera may be a device for photographing the
저장부는 카메라에 의한 촬영에 의해 생성된 이미지(115)를 저장하기 위한 스토리지를 포함할 수 있다. 저장부는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The storage unit may include storage for storing the
모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)를 촬영한 이미지들(115)을 획득하고, 획득된 이미지들(115)을 지오 처리함으로써 지오 처리된 이미지들(115)을 대상지(150)에 대응하는 지도, 도면 또는 위성 사진에 대해 매칭시키기 위한 장치일 수 있다. The
또한, 모바일 단말(100)은 공공 지도 또는 외부 지도에 매칭되는 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어를 로딩하고, 해당 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시하고, 표시된 레이어에 대한 사용자로부터의 선택에 기반하여 측량 데이터를 획득하기 위한 장치일 수 있다. In addition, the mobile terminal 100 loads a layer based on the
모바일 단말(100)은 무인 비행체(110)로부터 획득된 이미지들(115)을 분석 및 처리하기 위한 컴퓨팅 장치일 수 있다. 모바일 단말(100)은 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 모바일 단말(100)은 무인 비행체(110)과 통신하며 무인 비행체(110)를 제어하는 단말일 수 있다.The
모바일 단말(100)은 통신부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The
통신부(210)는 무인 비행체(110)에 의해 촬영된 이미지들(115)을 획득하기 위해 무인 비행체(110)와 통신하는 구성이거나, 무인 비행체(110)의 저장부와 접속하는 구성일 수 있다. 예컨대, 통신부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지들(115)을 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지들(115)을 획득할 수 있다. The
또한, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.In addition, the
프로세서(220)는 모바일 단말(100)의 구성 요소들을 관리할 수 있고, 모바일 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들(115)을 지오 처리하고, 지오 처리된 이미지들(115)을 대상지(150)에 대응하는 지도, 도면 또는 위성 사진에 대해 매칭시키기 위해 필요한 연산을 수행할 수 있다. 또한, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어를 로딩하고, 해당 레이어와 매칭되는 공공 지도 또는 외부 지도 상에서 상기 레이어를 중첩하여 표시하고, 표시된 레이어에 대한 사용자로부터의 선택에 기반하여 측량 데이터를 획득하기 위해 필요한 연산을 수행할 수 있다. The
프로세서(220)는 모바일 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서(220)에 의한 동작에 의해 도 3 내지 도 12를 참조하여 후술될 이미지(115)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 측량 데이터를 획득하는 방법이 수행될 수 있다. 프로세서(200)는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The
표시부(230)는 모바일 단말(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들(115) 및 지오 처리에 의해 매칭된 이미지(115)(즉, 지도, 도면 또는 위성 사진과 매칭되는 레이어), 이러한 레이어와 중첩되는 지도, 도면 또는 위성 사진을 출력하기 위한 디스플레이 장치일 수 있다. 표시부(230)는 터치 스크린을 포함할 수 있다. The
서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들(115)을 획득하여 이미지들(115)을 처리할 수 있다. 서버(120)는 획득된 이미지들(115)을 정합(예컨대, 픽셀 정합)함으로써 정합 이미지를 생성할 수 있다.The
서버(120)는 무인 비행체(110)와는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 서버(120)는 이미지들(115)에 대한 정합 프로세스를 수행하기 위한 고성능의 PC 또는 컴퓨팅 장치를 포함할 수 있다. The
서버(120)는 통신부 및 프로세서를 포함할 수 있다. 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(100) 및 무인 비행체(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The
이상, 도 1을 참조하여 전술된 기술적 특징은 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIG. 1 can be applied to FIG. 2 as they are, a duplicate description will be omitted.
후술될 상세한 설명에서, 모바일 단말(100) 또는 프로세서(220)의 구성들에 의해 수행되는 동작이나 모바일 단말(100) 또는 프로세서(220)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(100)에 의해 수행되는 동작으로 설명될 수 있다. 서버(120) 및 무인 비행체(110)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the components of the
도 3은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of matching an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing, or a satellite photograph according to an exemplary embodiment.
도 3을 참조하여, 무인 비행체(110)에 의해 촬영된 이미지(115)를 획득하고, 해당 이미지(115)의 픽셀 정보 및 중점 좌표에 기반하여, 이미지(115)의 경계점들에 대응하는 좌표들을 계산하고, 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시켜 매칭된 이미지(115)에 대응하는 레이어를 생성함으로써, 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(110)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 설명한다. Referring to FIG. 3, an
단계(310)에서, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 이미지(들)(115)를 획득할 수 있다. 모바일 단말(100)은 무인 비행체(110)와의 유/무선 통신을 통해 이미지(115)를 획득하거나, 무인 비행체(110)의 저장부를 모바일 단말(100)에 접속시킴으로써 이미지(115)를 획득할 수 있다. In
단계(320)에서, 모바일 단말(100)은 획득된 이미지(115)의 중점에 대응하는 중점 좌표를 획득할 수 있다. 예컨대, 무인 비행체(110)가 대상지(150)를 비행하면서 획득된 이미지(115)를 촬영한 시점에서의 무인 비행체(110)의 위치가 획득된 이미지(115)의 중점이 될 수 있다. 이러한 이미지(115)의 중점에 해당하는 좌표(중점 좌표)는 기지의 값일 수 있다. 말하자면, 모바일 단말(100)이 획득한 이미지(115)는 중점에 해당하는 중점 좌표에 대한 정보를 포함하고 있으며, 모바일 단말(100)은 획득한 이미지(115)로부터 이러한 중점 좌표를 획득할 수 있다. In
단계(330)에서, 모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산할 수 있다. 경계점들은 이미지(115)의 꼭지점들을 포함할 수 있다. 예컨대, 모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 꼭지점들을 포함하는 경계점들의 좌표들을 계산할 수 있다.In
여기서, 픽셀 정보는 이미지(115)의 픽셀 하나가 나타내는 실제 좌표계에서의 넓이를 나타내는 정보를 포함할 수 있다. Here, the pixel information may include information indicating an area in an actual coordinate system represented by one pixel of the
단계(340)에서, 모바일 단말(100)은 단계(330)을 통해 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. 단계(340)에서, 모바일 단말(100)은 이미지(115)의 중점 좌표 또한 지도, 도면 또는 위성 사진의 좌표와 매칭시킬 수 있다. In
단계(350)에서, 모바일 단말(100)은 단계(340)에서의 좌표 매칭에 의해 매칭된 이미지(115)에 대응하는 레이어를 생성할 수 있다. 말하자면, 모바일 단말(100)은 단계(340)에서의 좌표 매칭에 의해 매칭된 이미지(115)를 레이어화 할 수 있다. In
생성된 레이어는 무인 비행체(110)에 의해 촬영된 이미지(115)를 레이어화 한 것으로서, 지도, 도면 또는 위성 사진의 좌표와 중첩하여 표시될 수 있다. The generated layer is a
단계(360)에서, 모바일 단말(100)은 이미지(115)에 대응하여 생성된 레이어를 지도, 도면 또는 위성 사진 상에서 중첩하여 표시할 수 있다. 모바일 단말(100)의 사용자는 이러한 지도, 도면 또는 위성 사진과 중첩하여 표시되는 이미지(115)의 레이어를 통해, 지도, 도면 또는 위성 사진과 대상지(150)의 현재 모습을 촬영한 이미지(115)를 직관적으로 비교할 수 있다. 또는, 모바일 단말(100)의 사용자는 모바일 단말(100)을 조작함으로써 이미지(115)에 대응하여 생성된 레이어와 지도(들), 도면(들) 및 위성 사진(들) 중 적어도 2개의 레이어들을 중첩하여 표시할 수도 있다.In
이미지(115)의 각각은 대상지(150)의 일부를 촬영한 것으로서, 무인 비행체(110)로부터 획득되는 이미지는 복수일 수 있다. 전술된 단계들(310 내지 360)은 복수의 이미지들(115)의 각각에 대해 수행될 수 있다. Each of the
예컨대, 단계(310)에서 이미지(115)를 획득함에 있어서, 모바일 단말(100)은 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)을 획득할 수 있고, 전술한 중점 좌표를 획득하는 단계(320), 경계점들(및/또는 내부 지점들)에 대응하는 좌표들을 계산하는 단계(330), 및 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시키는 단계(340)를 복수의 이미지들(115)의 각각에 대해 수행할 수 있다. For example, in obtaining the
전술한 실시예를 통해서는, 서버(120)나 기타 원격지의 고성능의 PC를 통한 이미지들(115)에 대한 정합 프로세스 없이 이미지들(115)과 지도, 도면 또는 위성 사진을 매칭시킬 수 있다. 대상지(150) 외부에서의 작업 및 상대적으로 많은 시간이 소요되는 정합 프로세스가 수행되지 않음으로써, 사용자는 자신의 모바일 단말(100)을 통해 신속하고 효율적으로 대상지(150)를 실시간으로 촬영한 이미지들(115)과 지도, 도면 또는 위성 사진을 비교할 수 있다. 따라서, 사용자는 지도, 도면 또는 위성 사진에서 변경된 부분(예컨대, 건물 신축/ 조림 상황/ 벌채 상황/ 공사 진행 상황)을 직관적으로 확인할 수 있다. Through the above-described embodiment,
이상, 도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 may be applied to FIG. 3 as they are, so a redundant description is omitted.
도 4는 일 실시예에 따른, 이미지의 내부 지점들/경계점들의 좌표를 계산하는 방법을 나타내는 흐름도이다. 4 is a flowchart illustrating a method of calculating coordinates of internal points/boundary points of an image, according to an exemplary embodiment.
도 3을 참조하여 전술된 단계(330)의 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산하는 방법에 대해 더 자세하게 설명한다. A method of calculating coordinates of internal points/boundary points of the
모바일 단말(100)은 획득된 이미지(115)의 픽셀 정보 및 획득된 중점 좌표에 기반하여, 이미지(115)의 내부 지점들/경계점들의 좌표들을 계산할 수 있다.The
픽셀 정보는 이미지(115)의 하나의 픽셀이 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함할 수 있다. The pixel information may include information on an area of one pixel of the
단계(410)에서, 이미지(115)의 경계점들에 대응하는 좌표들을 계산함에 있어서, 모바일 단말(100)은 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산할 수 있다. 예컨대, 모바일 단말(100)은 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 이미지(115)의 각 꼭지점에 해당하는 경계점까지의 픽셀이 몇 개인지를 계산할 수 있다. In
단계(420)에서, 모바일 단말(100)은 이미지(115)의 중점 좌표, 이미지(115)의 픽셀 정보가 포함하는 넓이(하나의 픽셀이 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이)에 관한 정보 및 계산된 픽셀 거리에 기반하여 각 경계점의 좌표를 계산할 수 있다. 예컨대, 모바일 단말(100)은 하나의 픽셀이 10cm*10cm의 넓이를 나타내고, 중심 좌표로부터 경계점의 좌표까지의 픽셀 거리가 100(즉, 픽셀 100개만큼의 거리)인 경우, 상기 넓이에 관한 정보와 픽셀 거리 및 (기지의) 중점 좌표를 사용하여 경계점의 좌표를 계산할 수 있다. In
모바일 단말(100)은 (예컨대, 이미지(115)의 꼭지점에 해당하는) 계산된 경계점들의 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시킬 수 있다.The mobile terminal 100 matches the coordinates of the calculated boundary points (e.g., corresponding to the vertices of the image 115) with the coordinates of a map, a drawing, or a satellite photo, thereby matching the image with the map, drawing, or satellite image. I can make it.
유사하게, 모바일 단말(100)은 이미지(115)의 모서리(에지) 상의 점들에 해당하는 경계점들의 좌표들 역시 계산할 수 있고, 이들 계산된 좌표들을 지도, 도면 또는 위성 사진의 좌표들에 매칭시킬 수 있다. Similarly, the
한편, 매칭의 정확도를 보다 높이기 위한 방법으로서, 모바일 단말(100)은 이미지(115)의 (꼭지점들(또는 모서리들 상의 지점들)과 같은) 경계점들 뿐만아니라, 내부 지점들에 대응하는 좌표을 또한 계산할 수 있다. On the other hand, as a method to further increase the accuracy of matching, the
예컨대, 전술한 단계(330)에서, 모바일 단말(100)은 이미지(115)의 중점으로부터 이미지(115)의 (꼭지점들(또는 모서리들 상의 지점들)인) 경계점들까지를 기 설정된 개수로 분할하는 지점들(즉, 내부 지점들)의 각 지점에 대응하는 좌표를 계산할 수 있다. 상기 기 설정된 개수 또는 중점으로부터 경계점까지를 분할하는 비율(%)은 사용자의 모바일 단말(100)에 대한 설정에 따라 결정될 수 있다.For example, in the above-described
모바일 단말(100)은 상기 각 지점(즉, 각 내부 지점)에 대응하는 좌표를 계산함에 있어서, 이미지(115)의 중점 좌표에 해당하는 이미지(115)의 픽셀로부터 상기 각 지점에 해당하는 이미지(115)의 픽셀까지의 픽셀 거리를 계산할 수 있다(단계(410)). 모바일 단말(100)은 이미지(115)의 중점 좌표, 픽셀 정보가 포함하는 넓이에 관한 정보 및 상기 각 지점에 해당하는 이미지(115)의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산할 수 있다(단계(420)). 중점 좌표 대신에는 계산된 경계점의 좌표나, 미리 계산된 다른 내부 지점의 좌표가 사용될 수 있다. In calculating the coordinates corresponding to each point (ie, each internal point), the
모바일 단말(100)은 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킴에 있어서, 상기 각 지점의 좌표와 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 이미지(115)를 지도, 도면 또는 위성 사진과 매칭시킬 수 있다. In matching the
이와 같이, 이미지(115)의 경계점들 외에 이미지(115)의 내부 지점들의 좌표들을 지도, 도면 또는 위성 사진의 좌표들에 대해 더 매칭시킴으로써 매칭의 정확도를 높일 수 있다. In this way, the accuracy of matching may be improved by further matching coordinates of internal points of the
경계점 및 내부 지점에 대한 좌표를 계산하는 보다 구체적인 방법에 대해서는 도 5c를 참조하여 더 자세하게 설명된다. A more specific method of calculating coordinates for the boundary point and the inner point will be described in more detail with reference to FIG. 5C.
도 5c는 일 예에 따른, 이미지에 대한 정합 프로세스 없이, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법을 나타낸다. 5C illustrates a method of matching an image to a map, a drawing or a satellite photograph without a matching process for the image, according to an example.
도시된 이미지(115)에 있어서, 도시된 지점들(560 내지 580)은 좌표 계산의 대상이 되는 이미지(115) 상의 지점들을 나타낼 수 있다. 지점들(560)은 이미지(115)의 경계점들(560)을 나타낼 수 있다. 지점들(565 내지 580)은 이미지(115)의 내부 지점들(565 내지 580)을 나타낼 수 있다.In the
모바일 단말(100)은 이미지(115)의 중점(550)의 중점 좌표, 픽셀 정보가 포함하는 넓이에 관한 정보 및 경계점들(560) 각각까지의 계산된 픽셀 거리에 기반하여 각 경계점(560)의 좌표를 계산할 수 있다.The
또한, 모바일 단말(100)은 유사한 방식으로 이미지(115)의 중점(550)으로부터 이미지(115)의 경계점들(560)까지를 기 설정된 개수로 분할하는 내부 지점들(565 내지 580)의 각 지점(565 내지 580)에 대응하는 좌표를 계산할 수 있다.In addition, the
도시된 예시에서 이미지(115)의 중점(550)으로부터 이미지(115)의 경계점들(560)까지를 분할하는 기 설정된 개수 또는 비율(%)은 4 또는 25%로 설정되었다. 기 설정된 개수가 클수록(또는, 비율이 작을수록) 매칭의 정확도가 높게될 수 있다. In the illustrated example, a preset number or ratio (%) of dividing from the
모바일 단말(100)은 기 설정된 개수 또는 비율에 기반하여, 이미지(115)의 중점(550)을 중심으로 하는 가상의 도형(들)을 생성할 수 있고, 이러한 가상의 도형(들)의 꼭지점들이나 모서리 상의 지점들을 좌표 계산의 대상이 되는 이미지(115)의 내부 지점으로서 결정할 수 있다. 가상의 도형은 도시된 것처럼 정사각형이거나 혹은 직사각형일 수 있다. 또는, 가상의 도형은 기타 다각형 또는 원이 될 수도 있다. 말하자면, 모바일 단말(100)은 좌표 계산의 대상이 되는 내부 지점들을 결정하기 위해 이미지(115)의 중점(550)을 중심으로 하는 동심 다각형(또는 동심원)(들)을 생성할 수 있다.The
실시예에서는, 경계점들(560)을 비롯하여 내부 지점들(565 내지 580)의 좌표를 계산하여 대상지(150)를 나타내는 지도, 도면 또는 위성 사진(590)의 좌표들에 매칭시킴으로써 매칭의 정확도를 높일 수 있다.In the embodiment, the accuracy of matching is improved by calculating the coordinates of the boundary points 560 and the
도 5c에서는 경계점들과 내부 지점들이 모두 꼭지점인 경우가 도시되었으나, 경계점들과 내부 지점들의 각각은 이미지(115)의 모서리 상의 점 및 이미지(115)의 가상의 내부 도형 상의 점(예컨대, 가상의 다각형의 모서리 상의 점)일 수도 있다. 이와 관련하여 중복되는 설명은 생략한다. In FIG. 5C, both the boundary points and the inner points are vertices, but each of the boundary points and the inner points is a point on the edge of the
또한, 매칭의 정확도를 높이기 위해, 이미지(115)의 왜곡률이 보정될 수 있다. 이러한 왜곡률의 보정은 이미지(115)가 획득된 후 단계(320)이 수행되기 전에 수행될 수 있다. 왜곡률이 나타내는 이미지(115)의 왜곡은 무인 비행체(110)의 카메라 렌즈의 왜곡에 의해 기인된 것일 수 있다. In addition, in order to increase the accuracy of matching, the distortion factor of the
이상, 도 1 내지 3을 참조하여 전술된 기술적 특징은 도 4 및 도 5c에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 3 may be applied to FIGS. 4 and 5C as they are, duplicate descriptions are omitted.
도 5a는 일 예에 따른, 이미지들을 픽셀 정합하는 방법을 나타내고, 도 5b는 일 예에 따른, 이미지들을 간편 정합하는 방법을 나타낸다. FIG. 5A illustrates a method of pixel matching images according to an example, and FIG. 5B illustrates a method of simply matching images according to an example.
도 5a에서는 무인 비행체(110)에 의해 촬영된 이미지들(115)에 대해 정합 프로세스를 수행함으로써 정합 이미지(510)를 생성하는 방법이 도시되었다. In FIG. 5A, a method of generating a
도 5b에서는 무인 비행체(110)에 의해 촬영된 이미지들(115)에 대해 간편 정합 프로세스를 수행함으로써 정합 이미지(510)를 생성하는 방법이 도시되었다. 도 5b를 참조하여 설명되는 간편 정합 프로세스는 도 5a를 참조하여 설명되는 정합 프로세스에 비해 더 적은 연산을 요구하고, 더 적은 시간을 소요하는 정합 프로세스일 수 있다. In FIG. 5B, a method of generating a
도시된 복수의 이미지들(115)은 소정의 사진 중복률을 갖도록 대상지(150)를 촬영한 것일 수 있고, 이러한 복수의 이미지들(150)의 각각은 대상지(150)의 일부를 촬영한 것일 수 있다. The illustrated plurality of
도 5a를 참조하여 설명되는 정합 프로세스는 서버(120) 또는 원격지의 고성능의 PC에서 수행되는 것일 수 있다. The matching process described with reference to FIG. 5A may be performed in the
픽셀 정합은 복수의 이미지들(115) 각각의 픽셀들의 각각을 비교하여, 복수의 이미지들(115)을 하나의 정합된 이미지인 정합 이미지(510)로서 생성하는 작업일 수 있다. 이러한 픽셀 정합은 복수의 이미지들의 각각의 모든 픽셀들에 대해 비교가 이루어져야 하므로, 매우 많은 연산이 요구되고, 정합 이미지(510)의 생성에 많은 시간이 소요될 수 있다.The pixel matching may be an operation of comparing each of the pixels of each of the plurality of
이에 비해, 도 5b를 참조하여 설명되는 간편 정합 프로세스는 도 5a를 참조하여 설명되는 정합 프로세스에 비해 더 적은 연산을 요구하고, 더 적은 시간을 소요하여 정합 이미지(540)를 생성하는 정합 프로세스일 수 있다.In contrast, the simple matching process described with reference to FIG. 5B may be a matching process that requires fewer operations and takes less time to generate the
도 5b를 참조하여 설명되는 간편 정합 프로세스는 서버(120)에서 수행될 수 있다. The simple matching process described with reference to FIG. 5B may be performed in the
아래에서, 간편 정합 프로세스를 수행하는 방법에 대해 더 자세하게 설명한다.In the following, a method of performing the simple matching process will be described in more detail.
모바일 단말(100)의 제어에 따라, 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)은 서버(120)로 전달되어 정합될 수 있다. 이 때, 이미지들(115)은 무인 비행체(110)로부터 직접 전송되거나, 모바일 단말(100)로부터 서버(120)로 업로드될 수 있다.Under the control of the
서버(120)에서의 정합에 의해, 복수의 이미지들(115)은 픽셀 정합되어 하나의 정합 이미지(540)로서 생성될 수 있다.By matching in the
간편 정합 프로세스를 수행함에 있어서는, 복수의 이미지들(115) 중 제1 이미지(115-1) 및 제1 이미지(115-1)와 이웃하는 제2 이미지(115-2)에 대한 상기 픽셀 정합이, 제1 이미지(115-1) 및 제2 이미지(115-2)의 중복하는 부분 중 모바일 단말(100)의 성능 혹은 서버(120) 또는 모바일 단말(100)의 사용자에 의해 기 설정된 비율만큼의 일부(520)를 제외한 나머지 부분(530)에 대해서만 제1 이미지(115-1)의 픽셀 및 제2 이미지(115-2)의 픽셀을 비교함으로써 수행될 수 있다. 이러한 간편 정함 프로세스는 서버(120)에 의해 수행될 수 있다. In performing the simple matching process, the pixel matching of the first image 115-1 of the plurality of
즉, 제1 이미지(115-1) 및 제1 이미지(115-1)와 이웃하는 제2 이미지(115-2)에 대해 픽셀 정함을 수행함에 있어서, 50%의 중복 부분 중 픽셀 정합 배제부(520)에 해당하는 부분에 대해서는 픽셀 정합이 수행되지 않고, 픽셀 정합부(530)에 해당하는 부분에 대해서만 픽셀 정합이 수행될 수 있다. That is, in performing pixel determination on the first image 115-1 and the second image 115-2 adjacent to the first image 115-1, the pixel matching excluder ( Pixel matching may not be performed on the portion corresponding to 520, and pixel matching may be performed only on the portion corresponding to the pixel matching unit 530.
이를 통해, 이미지들(115) 간의 픽셀 정합에 수행되는 연산량을 현저하게 감소시킬 수 있다. Through this, the amount of computation performed for pixel matching between the
간편 정합 프로세스를 통해 이미지들(115)의 정합의 정확도는 유지하면서, 정합 프로세스에 소요되는 리소스 및 시간을 절약할 수 있다. While maintaining the accuracy of the registration of the
생성된 정합 이미지(510, 590)는 지도, 도면 또는 위성 사진(590)에 대해 매칭될 수 있다. The generated matched
이미지들(115)의 중복 부분 중 픽셀 정합 배제부(520)의 비율은 모바일 단말(100)의 성능 및 모바일 단말(100)과 서버(120) 간의 통신 상태에 의해 자동으로 결정될 수 있다. 또는, 이러한 비율은 모바일 단말(100)의 사용자에 의해 설정될 수 있다. The ratio of the pixel matching excluder 520 among the overlapping portions of the
실시예에서는, 모바일 단말(100)의 사용자가, 무인 비행체(110)에 의해 촬영된 복수의 이미지들(115)에 대해, 일반 정합 프로세스(제1 정합 프로세스)를 수행할 것인지(예컨대, 도 5a의 정합 프로세스), 간편 정합 프로세스(제2 정합 프로세스)를 수행할 것인지(예컨대, 도 5b의 간편 정합 프로세스), 또는 이미지들(115)의 정합을 수행하지 않고 이미지들(115)의 각각을 지오 처리할 것인지(예컨대, 도 5c의 지오 처리 프로세스)를 선택할 수 있다. In the embodiment, whether the user of the
이러한, 사용자의 선택에 따른 모바일 단말(100)의 제어를 통해 이미지들(115)에 대해 서버(120)에서 제1 정합 프로세스 또는 제2 정합 프로세스가 수행되거나, 모바일 단말(100)에서의 지오 처리 프로세스가 수행될 수 있다. The first matching process or the second matching process is performed in the
한편, 무인 비행체(110)에 의한 대상지(150)에 대한 촬영이 수행되기 전(즉, 무인 비행체(110)의 비행 전)에 간편 정합 프로세스의 수행이 모바일 단말(100)의 사용자에 의해 선택된 경우, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것에 비해 더 적은 수의 이미지들을 촬영할 수 있고, 또는, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것에 비해 더 낮은 중복률을 갖는 이미지들을 촬영할 수 있고, 또는, 무인 비행체(110)는 제1 정합 프로세스에서 요구하는 것보다 더 높은 고도에서 이미지들을 촬영할 수 있다.On the other hand, when the execution of the simple matching process is selected by the user of the
즉, 간편 정합 프로세스가 수행되는 경우에는 일반 정합 프로세스가 수행되는 경우에 비해 무인 비행체(110)에 의해 촬영되는 이미지의 개수가 더 작게 될 수 있다.That is, when the simple matching process is performed, the number of images photographed by the unmanned
실시예에서는, 모바일 단말(100)과 간편 정합 프로세스를 수행하는 서버(120)를 포함하여 이미지(115)를 지도, 도면 또는 위성 사진에 대해 매칭시키는 시스템이 구현될 수 있다. In the embodiment, a system may be implemented that includes the
이상, 도 1 내지 4 및 도 5c를 참조하여 전술된 기술적 특징은 도 5a 및 도 5b에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 4 and 5C may be applied to FIGS. 5A and 5B as they are, so a redundant description will be omitted.
도 6은 일 실시예에 따른, 모바일 단말에 의해 수행되는, 무인 비행체에 의해 촬영된 대상지의 이미지에 기반한 레이어로부터 측량 데이터를 획득하는 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a method of acquiring survey data from a layer based on an image of a target area captured by an unmanned aerial vehicle, performed by a mobile terminal, according to an exemplary embodiment.
도 6을 참조하여, 무인 비행체에 의해 촬영된 대상지(150)의 이미지(115)에 기반한 레이어와 공공 지도 또는 외부 지도를 중첩하여 표시하고, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법에 대해 설명한다. Referring to FIG. 6, a method of superimposing and displaying a layer based on the
단계(610)에서, 모바일 단말(100)은 공공 지도 또는 외부 어플리케이션으로부터 제공되는 외부 지도를 로딩할 수 있다. 예컨대, 모바일 단말(100)은 대상지(150)의 이미지(115)에 기반한 레이어와 공공 지도 또는 외부 지도를 중첩하여 표시하기 위한 전용 어플리케이션을 통해 공공 지도 또는 외부 지도를 로딩할 수 있다. In
단계(620)에서, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지에 기반하여 생성된, 공공 지도 또는 외부 지도와 매칭되는 레이어를 로딩할 수 있다. 예컨대, 모바일 단말(100)은 상기 전용 어플리케이션을 통해 상기 레이어를 로딩할 수 있다. In
"공공 지도 또는 외부 지도와 매칭되는 레이어"는 도 1 내지 도 5c를 참조하여 전술된 지도, 도면 또는 위성 사진과 매칭된 이미지에 대응하는 레이어(즉, 단계(350)에 의해 생성된 레이어)일 수 있다. 예컨대, 공공 지도 또는 외부 지도와 매칭되는 레이어는, 모바일 단말(100)에 의해 수행되는, 무인 비행체(110)에 의해 촬영된 이미지(115)를 획득하는 단계(310), 이미지(115)의 중점에 대응하는 중점 좌표를 획득하는 단계(320), 이미지(115)의 픽셀 정보 및 중점 좌표에 기반하여, 이미지(115)의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계(330), 계산된 좌표들과 공공 지도 또는 공공 지도의 좌표들을 매칭시킴으로써, 이미지(115)를 공공 지도 또는 공공 지도 매칭시키는 단계(340) 및 매칭된 이미지(115)에 대응하는 레이어를 생성하는 단계(350)에 의해 생성될 수 있다. "Layer matching a public map or an external map" is a layer corresponding to the image matched with the map, drawing, or satellite image described above with reference to FIGS. 1 to 5C (ie, a layer created by step 350). I can. For example, a layer matching a public map or an external map is performed by the
또는, 공공 지도 또는 외부 지도와 매칭되는 레이어는, 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영되고 소정의 사진 중복률을 갖도록 대상지(150)를 촬영한 복수의 이미지들(115)로서, 그 각각이 대상지의 일부를 촬영한 것인 복수의 이미지들(115)을, 서버(120) 또는 모바일 단말(100)의 외부 기기(일례로, 고성능의 PC)에서 픽셀 정합함으로써 생성된 것일 수 있다. 예컨대, 공공 지도 또는 외부 지도와 매칭되는 레이어는 전술된 제1 정합 프로세스 또는 제2 정합 프로세스에 의해 생성된 정합 이미지에 기반하여 생성된 것일 수 있다. Alternatively, the layer matching the public map or the external map is photographed by the unmanned
단계(630)에서, 모바일 단말(100)은 공공 지도 또는 외부 지도와 매칭되는 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다. 상기 레이어와 공공 지도 또는 외부 지도의 중첩 표시는 상기 전용 어플리케이션 상에서 이루어질 수 있다. In
공공 지도 또는 외부 지도와 매칭되는 레이어는 소정의 투명도를 가지고 표시될 수 있다. 따라서, 상기 레이어와 중첩하여 표시되는 공공 지도 또는 외부 지도가 상기 레이어를 통해 시인될 수 있다. A layer matching a public map or an external map may be displayed with a predetermined transparency. Accordingly, a public map or an external map displayed by overlapping with the layer may be visually recognized through the layer.
단계(640)에서, 모바일 단말(100)은 표시된 레이어에 대한 (예컨대, 레이어의 적어도 2개의 포인트들에 대한) 모바일 단말(100)의 사용자로부터의 선택을 수신할 수 있다. 사용자로부터의 선택은 모바일 단말(100)의 표시부(230)(터치 스크린)에 대한 사용자의 인터랙션일 수 있다. 이러한 사용자로부터의 선택은 표시된 레이어 상의 2개의 포인트들에 대한 독립적인 터치(또는 선택)이거나, 일 포인트로부터 다른 일 포인트까지의 연속적인 터치(예컨대, 드래그)일 수 있다. In
단계(640)에서, 모바일 단말(100)은 상기 사용자로부터의 선택에 의해 생성된 상기 레이어 상의 도형으로부터 측량 데이터를 획득할 수 있다. 생성되는 도형은 점, 선 및 면 중 적어도 하나로 구성되는 도형일 수 있다. In
예컨대, 모바일 단말(100)은 사용자로부터 선택된 레이어 상의 포인트에 대한 좌표를 측량 데이터를 획득할 수 있다. 또는, 상기 도형이 직선(또는 선분 혹은 곡선)인 경우 모바일 단말(100)은 해당 도형의 길이를 계산할 수 있고, 계산된 도형의 길이를 측량 데이터로서 획득할 수 있다. 또는, 상기 도형이 폐곡선으로 구성된 도형인 폴리곤(다각형 또는 원 등)인 경우 모바일 단말(100)은 해당 도형의 넓이를 계산할 수 있고, 계산된 도형의 넓이를 측량 데이터로서 획득할 수 있다.For example, the
말하자면, 모바일 단말(100)은 사용자로부터의 선택에 의해 생성된 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산할 수 있고, 계산된 도형의 길이 및 넓이 중 적어도 하나를 측량 데이터로서 획득할 수 있다.In other words, the
모바일 단말(100)은 생성된 도형이 폴리곤인 경우, 해당 폴리곤의 넓이를 측량 데이터로서 획득할 수 있고, 생성된 도형이 폴리곤이 아닌 경우, 사용자에 의해 선택된 포인트들 간의 길이를 측량 데이터로서 획득할 수 있다. 모바일 단말(100)은 폴리곤의 넓이를 측량 데이터로서 획득하는 경우에 있어서도, 해당 폴리곤을 구성하는 각 선(예컨대, 각 모서리)의 길이를 또한 측량 데이터로서 획득할 수 있다.When the generated figure is a polygon, the
모바일 단말(100)은 획득된 측량 데이터를 표시부(230)를 통해 출력할 수 있다. 예컨대, 모바일 단말(100)은 사용자가 시인할 수 있도록 표시된 레이어에서 생성된 도형의 옆에 획득된 측량 데이터를 표시할 수 있다. 또는, 모바일 단말(100)은 별개의 윈도우를 통해 획득된 측량 데이터를 표시할 수 있다.The
한편, 사용자로부터의 선택에 의해 생성된 레이어 상의 도형은 상기 레이어 및 상기 레이어와 중첩된 공공 지도 또는 외부 지도와는 시각적으로 구분되도록 표시될 수 있다. Meanwhile, the figure on the layer generated by the user's selection may be displayed to be visually distinguished from the layer and a public map or an external map overlapping the layer.
이상, 도 1 내지 도 5c를 참조하여 전술된 기술적 특징은 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 5C can be applied to FIG. 6 as they are, a duplicate description will be omitted.
도 7은 일 예에 따른, 사용자로부터의 선택에 따라 측량 데이터를 획득하는 방법을 나타내는 흐름도이다. 7 is a flowchart illustrating a method of obtaining survey data according to a selection from a user, according to an example.
도 7을 참조하여, 사용자로부터의 선택에 의해 생성된 레이어 상의 도형에 대해 측량 데이터를 획득하는 보다 구체적인 방법에 대해 설명한다. With reference to FIG. 7, a more specific method of acquiring survey data for a figure on a layer created by a user's selection will be described.
단계(710)에서, 모바일 단말(100)은 생성된 도형이 폴리곤인 경우, 해당 폴리곤의 넓이를 계산할 수 있다. 모바일 단말(100)은 사용자에 의해 선택된 포인트 및 상기 폴리곤에 대응하는 좌표를 획득할 수 있고, 획득된 좌표에 기반하여 폴리곤의 넓이를 계산할 수 있다. In
말하자면, 레이어에 대한 사용자의 선택에 따라 획득되는 측량 데이터는 사용자에 의해 선택된 포인트들의 각각에 대한 좌표를 포함할 수 있고, 이 때, 좌표는 공공 지도 또는 외부 지도가 사용하는 좌표계의 좌표 값일 수 있다. 폴리곤의 넓이는 상기 선택된 포인트들의 각각에 대한 좌표에 기반하여 계산될 수 있다. In other words, the survey data obtained according to the user's selection for the layer may include coordinates for each of the points selected by the user, and in this case, the coordinates may be coordinate values of a coordinate system used by a public map or an external map. . The area of the polygon may be calculated based on the coordinates for each of the selected points.
단계(715)에서, 모바일 단말(100)은 상기 폴리곤을 침해지로 마킹하여 표시할 수 있다. 모바일 단말(100)은 계산된 폴리곤의 넓이를 상기 침해지의 넓이인 측량 데이터로서 획득할 수 있다. In
단계(720)에서, 모바일 단말(100)은 레이어에 대한 사용자에 의해 선택된 포인트들 간의 길이를 계산할 수 있고, 계산된 길이를 표시할 수 있다. 상기 선택된 포인트들 간의 길이는 상기 선택된 포인트들 각각의 좌표에 기반하여 계산될 수 있다.In
단계(730)에서, 모바일 단말(100)은 레이어에 대한 사용자에 의해 선택된 포인트들에 기반하여 소정의 경계선을 결정할 수 있다. 상기 경계선은 사용자가 무인 비행체(110)에 의해 촬영된 대상지(150)의 이미지(115)에 기반하여 생성된 레이어와 해당 레이어와 중첩된 공공 지도 또는 외부 지도를 비교하여 인식한 후, 상기 레이어 상에 표시한 임의의 경계를 나타내는 선일 수 있다. In
단계(740)에서, 모바일 단말(100)은 결정된 경계선을 마킹하여 표시할 수 있다.In step 740, the
전술된 상세한 설명에서, 사용자에 의해 선택된 포인트들에 기반하여 생성된 도형(폴리곤, 경계선 등)을 "마킹하는 것"은 모바일 단말(100)이 상기 도형을 별개의 객체로서 결정하는 것을 의미할 수 있다. 예컨대, 모바일 단말(100)은 상기 도형을 별개의 객체로서 관리하거나, (적어도 임시로) 저장할 수 있다. 따라서, 모바일 단말(100)은 사용자에 의한 모바일 단말(100)의 조작에 따라 상기 도형을 이미지(115)의 레이어와는 별개로 삭제/수정/변경할 수 있다. 또한, 이러한 마킹된 도형은 이미지(115)의 레이어나 공공 지도 또는 외부 지도와는 시각적으로 구분되어 표시될 수 있다. In the above detailed description, "marking" a figure (polygon, boundary line, etc.) generated based on points selected by a user may mean that the
이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 6 may be applied to FIG. 7 as they are, a duplicate description will be omitted.
도 8은 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 측량 데이터를 획득하는 방법을 나타낸다. 8 illustrates a method of obtaining survey data by marking and displaying a boundary line over time, according to an example.
도 8을 참조하여, 시간에 따라 대상지(150)의 환경이 변화하는 경우에 있어서, 모바일 단말(100)이 해당 변화를 경계선을 통해 이미지(115)의 레이어 상에 표시할 수 있도록 하는 방법에 대해 설명한다. Referring to FIG. 8, when the environment of the
전술된 단계(650 또는 735)에 있어서, 모바일 단말(100)은 이미지(115)의 레이어에 대해 사용자에 의해 선택된 포인트들을 제1 경계선으로서 마킹하여 표시할 수 있다. In
단계(810)에서, 모바일 단말(100)은 이미지(115)가 촬영된 이후에 무인 비행체(110)에 의해 촬영된 대상지(150)의 후속 이미지에 기반하여 생성된, 공공 지도 또는 외부 지도와 매칭되는 후속 레이어를 로딩할 수 있다. 후속 이미지는 이미지(115)가 촬영된 시점 이후에 무인 비행체(110)에 의해 동일한 대상지(150)를 촬영한 이미지일 수 있다. 후속 레이어는 기 생성된 이미지(115)의 레이어와 동일한 방법에 의해 생성될 수 있으므로, 중복되는 설명은 생략한다. In
단계(820)에서, 모바일 단말(100)은 후속 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다. 예컨대, 모바일 단말(100)은 제1 경계선에 대한 표시를 유지하면서, 기존에 표시된 이미지(115)의 레이어 대신에, 후속 레이어를 공공 지도 또는 외부 지도 상에서 중첩하여 표시할 수 있다.In
모바일 단말(100)의 사용자는 후속 레이어와 공공 지도 또는 외부 지도가 중첩된 표시부(230)의 표시 내용과 제1 경계선의 표시를 확인함으로써 대상지(150)의 환경의 변화를 시인할 수 있다. The user of the
한편, 모바일 단말(100)은 후속 레이어가 로딩되어 표시됨에 따라 기존에 표시된 이미지(115)의 레이어는 더 이상 표시되지 않도록 할 수 있다. 사용자는 모바일 단말(100)을 제어함으로써 기존에 표시된 이미지(115)를 선택적으로 표시 또는 비표시로 할 수 있다. 또는, 모바일 단말(100)은 기존에 표시된 이미지(115)의 레이어의 표시를 유지하고 후속 레이어를 더 중첩하여 표시할 수도 있다. Meanwhile, as a subsequent layer is loaded and displayed, the
단계(830)에서, 모바일 단말(100)은 표시된 후속 레이어에 대한 (예컨대, 후속 레이어의 적어도 2개의 포인트들에 대한) 모바일 단말(100)의 사용자로부터의 선택을 수신할 수 있다. In
단계(840)에서, 모바일 단말(100)은 사용자에 의한 선택에 기반하여 새로운 경계선을 마킹할 수 있고, 새로운 경계선을 이전의 경계선(제1 경계선)과 함께 표시할 수 있다. 예컨대, 모바일 단말(100)은 사용자에 의해 선택된 포인트들을 제2 경계선으로서 마킹하여 제1 경계선과 함께 표시할 수 있다. 제2 경계선은 대상지(150)의 후속 이미지에서 식별된 대상지(150)의 환경 변화를 나타내는 경계의 선일 수 있다. In
모바일 단말(100)은 전술된 단계들(810 내지 840)을 더 반복함으로써 추가적인 후속 레이어에 대해 제2 경계선이 표시된 이후의 대상지(150)의 환경 변화를 나타내는 제3 경계선을 마킹하여 표시할 수 있다. The
전술된 단계들(810 내지 840)의 수행됨으로써, 실시예에서는 시간의 흐름에 따른 대상지(150)의 환경의 변화를 용이하게 식별할 수 있으며, 이러한 환경의 변화와 관련된 측량 데이터를 손쉽게 획득할 수 있다. By performing the above-described
실시예에서는, 모바일 단말(100)에서 무인 비행체(110)에 의해 촬영된 이미지의 공공 지도 또는 외부 지도에 대한 매칭이 가능하게 되는 바, 서버에서의 불필요한 동작(예컨대, 이미지 정합 프로세스 등) 없이 사용자가 신속하게 대상지(150)의 환경의 변화를 시인할 수 있다. In the embodiment, it is possible to match the image photographed by the unmanned
관련하여, 도 12는 일 예에 따른, 시간의 흐름에 따른 경계선을 마킹 및 표시함으로써 산불 영역에 대한 측량 데이터를 획득하는 방법을 나타낸다.In relation to this, FIG. 12 illustrates a method of obtaining survey data for a forest fire area by marking and displaying a boundary line over time, according to an example.
도 12를 참조하여 대상지(150)에 산불이 발생한 상황에 있어서, 산불이 퍼져나가는 상황을 경계선들(1210 내지 1230)에 의해 표시하는 방법이 설명된다. Referring to FIG. 12, in a situation in which a forest fire occurs in the
먼저, 모바일 단말(100)은 무인 비행체(110)에 의해 촬영된 대상지(150)의 제1 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제1 레이어를 생성할 수 있고, 제1 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제1 레이어를 통해 제1 이미지의 촬영 시점인 제1 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제1 경계선(1210)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제1 경계선(1210)을 표시할 수 있다. First, the
그 다음으로, 모바일 단말(100)은 제1 시각 이후인 제2 시각에 무인 비행체(110)에 의해 촬영된 대상지(150)의 제2 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제2 레이어를 생성할 수 있고, 제2 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제2 레이어를 통해 제2 이미지의 촬영 시점인 제2 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제2 경계선(1220)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제2 경계선(1220)을 표시할 수 있다. 이 때, 모바일 단말(100)은 제1 경계선(1210)과 제2 경계선(1220)을 함께 표시할 수 있다. Next, the
그 다음으로, 모바일 단말(100)은 제2 시각 이후인 제3 시각에 무인 비행체(110)에 의해 촬영된 대상지(150)의 제3 이미지에 기반하여, 공공 지도 또는 외부 지도와 매칭되는 제3 레이어를 생성할 수 있고, 제3 레이어를 공공 지도 또는 외부 지도와 중첩하여 표시할 수 있다. 사용자는 제3 레이어를 통해 제3 이미지의 촬영 시점인 제3 시각에 산불이 퍼져나가고 있는 경계를 확인할 수 있고, 모바일 단말(100)을 조작하여 해당 경계를 제3 경계선(1230)으로서 마킹할 수 있다. 모바일 단말(100)은 마킹된 제3 경계선(1230)을 표시할 수 있다. 이 때, 모바일 단말(100)은 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)을 함께 표시할 수 있다. Next, the
이와 같이, 사용자는 제1 시각으로부터 제3 시각으로의 시간의 흐름에 따라, 산불이 얼마나(또한, 어떠한 방향으로) 퍼져나가고 있는지를 경계선들(1210 내지 1230)을 통해 확인할 수 있다.In this way, the user can check how much (and in what direction) the forest fire is spreading through the
또한, 모바일 단말(100)은 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)이 나타내는 좌표에 기반하여, 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)에 의해 결정되는 산불 영역들 각각의 넓이를 계산할 수 있다.In addition, the
예컨대, 모바일 단말(100)은 산불 영역(1), 산불 영역(2) 및 산불 영역(3) 중 적어도 하나를 계산할 수 있다. 이에 따라, 사용자는 산불 영역이 시간의 흐름에 따라 넓어지는 정도를 확인할 수 있으다. 또한, 모바일 단말(100)은 산불 영역과 관련한 정확한 위치 좌표(예컨대, 제1 경계선(1210), 제2 경계선(1220) 및 제3 경계선(1230)의 좌표들 등) 역시 계산할 수 있다. For example, the
설명한 실시예는, 산불이 발생한 경우와 같이, 대상지(150)의 환경의 변화를 실시간으로/시간의 흐름에 따라 확인해야 하는 경우에, 이를 가능하게 할 수 있다. The described embodiment may enable this when it is necessary to check changes in the environment of the
이상, 도 1 내지 도 7을 참조하여 전술된 기술적 특징은 도 8 및 12에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 7 may be applied to FIGS. 8 and 12 as they are, a duplicate description will be omitted.
도 9는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어를 공공 지도 상에 중첩하여 표시하는 방법을 나타낸다. 9 illustrates a method of superimposing and displaying a layer of an image of an object photographed by an unmanned aerial vehicle on a public map, according to an example.
레이어(910)는 무인 비행체(110)에 의해 대상지(150)를 촬영한 이미지(115)에 기반하여 생성된 전술한 레이어에 대응할 수 있다. The
지도(900)는 공공 지도에 해당하는 지적도일 수 있다. 지적도(900) 역시 레이어화되어 모바일 단말(100)에서 표시될 수 있다.The map 900 may be an cadastral map corresponding to a public map. The cadastral map 900 may also be layered and displayed on the
도시된 것처럼, 레이어(910)는 지적도(900) 상에 중첩하여 표시될 수 있고, 소정의 투명도를 가지고 표시될 수 있다.As shown, the
이상, 도 1 내지 도 8 및 도 12를 참조하여 전술된 기술적 특징은 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIGS. 1 to 8 and 12 may be applied to FIG. 9 as they are, a duplicate description will be omitted.
도 10는 일 예에 따른, 무인 비행체에 의해 촬영된 대상지의 이미지의 레이어와 공공 지도가 중첩된 상태에서, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다. 10 illustrates a method of acquiring survey data for an infringing place in a state in which a layer of an image of a target site captured by an unmanned aerial vehicle and a public map are overlapped, according to an example.
도 10에서는, 전술된 레이어(910)와 지적도(900)가 중첩하여 표시된 경우에 있어서 침해지를 결정하여, 침해지에 대한 측량 데이터를 획득하는 방법을 나타낸다. In FIG. 10, a method of obtaining survey data on the infringement location by determining the infringement location in the case where the above-described
도시된 예시에서는, 지적도의 1-1에 해당하는 영역에 공사/조림/벌채를 수행하는 경우에 있어서, 침해지를 결정하는 방법을 나타낸다. 사용자는 전술된 레이어와 지적도가 중첩된 표시 내용을 확인함으로써, 공사/조림/벌채를 수행한 영역 중 지적도의 1-1에 해당하는 영역을 벗어나는 영역을 확인할 수 있다.In the illustrated example, in the case of performing construction/reforestation/cutting in the area corresponding to 1-1 of the cadastral map, a method of determining the infringement site is shown. By checking the display contents in which the above-described layer and the cadastral map are overlapped, the user can check an area outside the area corresponding to 1-1 of the cadastral map among the areas in which construction/reforestation/ felling has been performed.
모바일 단말(100)은, 사용자로부터의 도시된 레이어에 대한 선택에 기반하여, 상기 공사/조림/벌채를 수행한 영역 중 지적도의 1-1에 해당하는 영역을 벗어나는 영역을 침해지로서 마킹할 수 있다.The
모바일 단말(100)은 침해지에 해당하는 영역에 대한 좌표를 획득(또는 계산)할 수 있고, 침해지애 해당하는 영역의 넓이를 계산할 수 있다. The
침해지에 해당하는 영역에 대한 좌표와 넓이는 측량 데이터로서 모바일 단말(100)의 사용자에게 제공될 수 있다. The coordinates and the area of the area corresponding to the intrusion area may be provided to the user of the
도 11a 및 11b는 일 예에 따른, 침해지 및 경계선에 대한 측량 데이터를 획득하는 방법을 나타낸다.11A and 11B illustrate a method of obtaining survey data for an infringement area and a boundary line, according to an example.
도 11a 및 11b에서는 전술된 레이어와 지적도가 중첩하여 표시된 경우가 가정된다. In FIGS. 11A and 11B, it is assumed that the above-described layers and cadastral maps are overlapped and displayed.
도 11a에서 영역(1110)은 공사/조림/벌채를 수행한 영역을 나타낼 수 있다. 경계선(1100)은 특정한 지적의 경계를 나타낼 수 있다. In FIG. 11A, the
도시된 것처럼, 사용자는 5개의 포인트들을 레이어로부터 선택할 수 있고, 모바일 단말(100)은 선택된 포인트들에 대한 좌표를 획득할 수 있고, 선택된 포인트들에 의해 생성되는 도형의 넓이를 계산할 수 있다. 모바일 단말(100)은 상기 도형을 침해지로서 마킹할 수 있고, 상기 도형의 넓이를 침해지의 넓이로서 결정할 수 있다.As shown, the user may select five points from the layer, the
도 11b에서 (점선을 포함하는 원 모양의) 영역(1140)은 공사/조림/벌채를 수행한 영역을 나타낼 수 있다. 경계선(1130)은 특정한 지적의 경계를 나타낼 수 있다. In FIG. 11B, an area 1140 (a circle shape including a dotted line) may represent an area where construction/reforestation/harvesting has been performed. The
도시된 것처럼, 사용자는 드래그 입력을 통해 레이어로부터 특정한 영역(1150)을 선택할 수 있고, 모바일 단말(100)은 선택된 영역(1150)에 대한 좌표를 획득할 수 있다. 또한, 모바일 단말(100)은 선택된 영역(1150)이 나타내는 도형의 넓이를 계산할 수 있다. 모바일 단말(100)은 상기 도형을 침해지로서 마킹할 수 있고, 상기 도형의 넓이를 침해지의 넓이로서 결정할 수 있다.As shown, the user may select a
도 11a 및 도 11b에서, 모바일 단말이 침해지에 해당하는 영역(1120, 1150)의 도형의 길이(즉, 도형을 구성하는 각 선분/곡선의 길이)를 계산할 수 있거나, 해상 도형 상의 좌표를 획득할 수 있음은 물론이다.In FIGS. 11A and 11B, the mobile terminal can calculate the length of the figure (that is, the length of each line segment/curve constituting the figure) of the
이상, 도 1 내지 도 9 및 도 12를 참조하여 전술된 기술적 특징은 도 10, 도 11a 및 도 11b에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 9 and 12 may be applied to FIGS. 10, 11A, and 11B as they are, so a duplicate description will be omitted.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and drawings as described above, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in an order different from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
Claims (10)
무인 비행체에 의해 촬영된 이미지를 획득하는 단계;
상기 이미지의 중점에 대응하는 중점 좌표를 획득하는 단계;
상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하는 단계;
상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계; 및
상기 매칭된 이미지에 대응하는 레이어를 생성하는 단계
를 포함하고,
상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고,
상기 경계점들에 대응하는 좌표들을 계산하는 단계는,
상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하는 단계; 및
상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하는 단계
를 포함하고,
상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수 또는 비율로 분할하는 지점들의 각 지점에 대응하는 좌표를 계산하는 단계
를 더 포함하고,
상기 기 설정된 개수 또는 비율은 상기 모바일 단말의 사용자에 의해, 매칭의 정확도를 나타내는 정보로서 기 설정되고,
상기 각 지점에 대응하는 좌표를 계산하는 단계는,
상기 기 설정된 개수 또는 비율에 기반하여, 상기 중점을 동심으로 하는 복수의 가상의 도형들을 생성하는 단계;
상기 가상의 도형들의 꼭지점들의 각각을 상기 좌표를 계산하는 대상인 상기 각 지점으로서 결정하는 단계 - 상기 가상의 도형들의 꼭지점들의 각각은 상기 이미지의 중점과 상기 이미지의 꼭지점들을 연결한 선을, 동일한 간격으로 상기 기 설정된 개수 또는 비율로 분할한 지점들의 각각에 대응함 -;
상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하는 단계; 및
상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하는 단계
를 포함하고,
상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.In a method for matching an image of a target site taken by an unmanned aerial vehicle, performed by a mobile terminal, with a map, a drawing or a satellite photo,
Obtaining an image photographed by the unmanned aerial vehicle;
Acquiring a center point coordinate corresponding to the center point of the image;
Calculating coordinates corresponding to boundary points including vertices of the image based on the pixel information of the image and the midpoint coordinates;
Matching the image with the map, drawing, or satellite image by matching the calculated coordinates with the coordinates of a map, a drawing or a satellite photo; And
Generating a layer corresponding to the matched image
Including,
The pixel information includes information on an area indicated by a pixel of the image in a coordinate system of the map, drawing, or satellite photo,
Computing the coordinates corresponding to the boundary points,
Calculating a pixel distance from a pixel of the image corresponding to the central coordinate to a pixel corresponding to each boundary point of the boundary points; And
Calculating coordinates of the boundary points based on the central coordinates, information on the area, and the calculated pixel distance
Including,
Calculating coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number or ratio
Including more,
The preset number or ratio is preset by the user of the mobile terminal as information indicating the accuracy of matching,
Computing the coordinates corresponding to each point,
Generating a plurality of virtual figures having the center point concentric based on the preset number or ratio;
Determining each of the vertices of the virtual figures as the respective points to which the coordinates are to be calculated-Each of the vertices of the virtual figures is a line connecting the midpoint of the image and the vertices of the image at equal intervals. Corresponding to each of the points divided by the preset number or ratio -;
Calculating a pixel distance from a pixel of the image corresponding to the central coordinate to a pixel of the image corresponding to each point; And
Calculating the coordinates of each point based on the center point coordinates, information on the area, and a pixel distance to a pixel of the image corresponding to each point
Including,
The step of matching the image with the map, drawing, or satellite photograph includes matching the coordinates of each point with the coordinates of the map, drawing, or satellite photograph, thereby matching the image with the map, drawing, or satellite photograph. To match maps, drawings or satellite images.
상기 이미지를 획득하는 단계는,
상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들을 획득하고,
상기 중점 좌표를 획득하는 단계, 상기 경계점들에 대응하는 좌표들을 계산하는 단계, 및 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는 단계는 상기 복수의 이미지들 각각에 대해 수행되는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.The method of claim 1,
The step of obtaining the image,
Acquiring a plurality of images photographed by the unmanned aerial vehicle flying a path including a plurality of waypoints on the target site,
The step of obtaining the focus coordinates, calculating the coordinates corresponding to the boundary points, and matching the image with the map, drawing or satellite image are performed for each of the plurality of images. , How to match against drawings or satellite photos.
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고,
상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들에 대한 픽셀 정합 이미지를 생성하기 위해, 상기 복수의 이미지들은 서버로 전달되어 정합되고,
상기 정합은 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 상기 픽셀 정합 이미지를 생성하는 것이고,
상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합은, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행되는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.The method of claim 4,
The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, each of the plurality of images is taken of a part of the target site,
According to the control of the mobile terminal, in order to generate a pixel-matched image for the plurality of images, the plurality of images are transmitted to and matched to a server,
The matching is to generate one pixel matching image by pixel matching the plurality of images,
The pixel matching of the first image among the plurality of images and the second image adjacent to the first image is performed by the performance of the mobile terminal or the server or the overlapping portion of the first image and the second image. Matching an image to a map, a drawing, or a satellite photograph, performed by comparing the pixels of the first image and the pixels of the second image only for the remaining portions except for a portion of the predetermined ratio by the user of the mobile terminal Way.
상기 이미지에 대응하여 생성된 레이어를 상기 지도, 도면 또는 위성 사진 상에서 중첩하여 표시하는 단계
를 더 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법.The method of claim 1,
Superimposing and displaying a layer generated corresponding to the image on the map, drawing, or satellite image
A method for matching the image to a map, a map, or a satellite image further comprising a.
상기 표시된 레이어의 적어도 2개의 포인트들에 대한 상기 모바일 단말의 사용자로부터의 선택을 수신하는 단계; 및
상기 선택에 의해 생성된 상기 레이어 상의 도형의 길이 및 넓이 중 적어도 하나를 계산하는 단계
를 더 포함하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법. The method of claim 6,
Receiving a selection from a user of the mobile terminal for at least two points of the displayed layer; And
Calculating at least one of a length and a width of a figure on the layer generated by the selection
A method for matching the image to a map, a map, or a satellite image further comprising a.
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
무인 비행체에 의해 촬영된 이미지를 획득하고, 상기 이미지의 중점에 대응하는 중점 좌표를 획득하고, 상기 이미지의 픽셀 정보 및 상기 중점 좌표에 기반하여, 상기 이미지의 꼭지점들을 포함하는 경계점들에 대응하는 좌표들을 계산하고, 상기 계산된 좌표들과 지도, 도면 또는 위성 사진의 좌표들을 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키고,
상기 픽셀 정보는 상기 이미지의 하나의 픽셀이 상기 지도, 도면 또는 위성 사진의 좌표계에서 나타내는 넓이에 관한 정보를 포함하고,
상기 적어도 하나의 프로세서는,
상기 경계점들에 대응하는 좌표들을 계산함에 있어서, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 경계점들의 각 경계점에 해당하는 픽셀까지의 픽셀 거리를 계산하고, 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 계산된 픽셀 거리에 기반하여 상기 각 경계점의 좌표를 계산하고,
상기 적어도 하나의 프로세서는, 상기 이미지의 중점으로부터 상기 경계점들까지를 기 설정된 개수 또는 비율로 분할하는 지점들의 각 지점에 대응하는 좌표를 더 계산하되,
상기 기 설정된 개수 또는 비율은 상기 모바일 단말의 사용자에 의해, 매칭의 정확도를 나타내는 정보로서 기 설정되고,
상기 각 지점에 대응하는 좌표를 계산함에 있어서, 상기 기 설정된 개수 또는 비율에 기반하여, 상기 중점을 동심으로 하는 복수의 가상의 도형들을 생성하고, 상기 가상의 도형들의 꼭지점들의 각각을 상기 좌표를 계산하는 대상인 상기 각 지점으로서 결정하고, 상기 가상의 도형들의 꼭지점들의 각각은 상기 이미지의 중점과 상기 이미지의 꼭지점들을 연결한 선을, 동일한 간격으로 상기 기 설정된 개수 또는 비율로 분할한 지점들의 각각에 대응하고, 상기 중점 좌표에 해당하는 상기 이미지의 픽셀로부터 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리를 계산하고, 상기 중점 좌표, 상기 넓이에 관한 정보 및 상기 각 지점에 해당하는 상기 이미지의 픽셀까지의 픽셀 거리에 기반하여 상기 각 지점의 좌표를 계산하고,
상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭함에 있어서, 상기 각 지점의 좌표와 상기 지도, 도면 또는 위성 사진의 좌표를 매칭시킴으로써, 상기 이미지를 상기 지도, 도면 또는 위성 사진과 매칭시키는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치. In the apparatus for matching an image of a target site captured by an unmanned aerial vehicle implemented by a mobile terminal with a map, drawing, or satellite photo,
At least one processor implemented to execute computer-readable instructions
Including,
The at least one processor,
Coordinates corresponding to boundary points including vertices of the image based on pixel information and the central coordinates of acquiring an image photographed by an unmanned aerial vehicle, acquiring a central coordinate corresponding to the central point of the image, and Calculation, and matching the calculated coordinates with the coordinates of a map, a drawing or a satellite picture, thereby matching the image with the map, a drawing or a satellite picture,
The pixel information includes information on an area indicated by a pixel of the image in a coordinate system of the map, drawing, or satellite photo,
The at least one processor,
In calculating coordinates corresponding to the boundary points, a pixel distance from a pixel of the image corresponding to the center point to a pixel corresponding to each boundary point of the boundary points is calculated, and the center point coordinate, information on the area, and Compute the coordinates of each boundary point based on the calculated pixel distance,
The at least one processor further calculates coordinates corresponding to each point of points for dividing from the midpoint of the image to the boundary points by a preset number or ratio,
The preset number or ratio is preset by the user of the mobile terminal as information indicating the accuracy of matching,
In calculating the coordinates corresponding to each point, based on the preset number or ratio, a plurality of virtual figures having the center point concentric are generated, and the coordinates are calculated for each of the vertices of the virtual figures Each point of the virtual figure is determined as the target point, and each of the vertices of the virtual figures corresponds to a line connecting the midpoint of the image and the vertices of the image at equal intervals and divided by the preset number or ratio. And calculating a pixel distance from a pixel of the image corresponding to the center point coordinate to a pixel of the image corresponding to each point, and the center point coordinate, information about the area, and the image corresponding to each point. Compute the coordinates of each point based on the pixel distance to the pixel,
In matching the image with the map, drawing, or satellite photo, the image is matched with the map, drawing or satellite photo by matching the coordinates of each point with the coordinates of the map, drawing or satellite photo. Devices that match against maps, drawings or satellite images.
상기 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 상기 무인 비행체에 의해 촬영된 복수의 이미지들이 획득되고,
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 대상지의 일부를 촬영한 것이고,
상기 모바일 단말의 제어에 따라, 상기 복수의 이미지들에 대한 픽셀 정합 이미지를 생성하기 위해, 상기 복수의 이미지들을 수신하여 정합하는 서버
를 더 포함하고,
상기 서버는 상기 정합을 통해 상기 복수의 이미지들을 픽셀 정합함으로써 하나의 상기 픽셀 정합 이미지를 생성하고,
상기 서버는, 상기 복수의 이미지들 중 제1 이미지 및 상기 제1 이미지와 이웃하는 제2 이미지에 대한 상기 픽셀 정합을, 상기 제1 이미지 및 상기 제2 이미지의 중복하는 부분 중 상기 모바일 단말의 성능 혹은 상기 서버 또는 상기 모바일 단말의 사용자에 의해 기 설정된 비율만큼의 일부를 제외한 나머지 부분에 대해서만 상기 제1 이미지의 픽셀 및 상기 제2 이미지의 픽셀을 비교함으로써 수행하는, 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 장치.The method of claim 9,
A plurality of images photographed by the unmanned aerial vehicle flying on a path including a plurality of waypoints on the target site are acquired,
The plurality of images are taken of the target site so as to have a predetermined photo redundancy rate, each of the plurality of images is taken of a part of the target site,
A server that receives and matches the plurality of images to generate a pixel matched image for the plurality of images under control of the mobile terminal
Including more,
The server generates one pixel matching image by pixel matching the plurality of images through the matching,
The server performs the pixel matching of the first image among the plurality of images and the second image adjacent to the first image, and the performance of the mobile terminal among the overlapping portions of the first image and the second image. Alternatively, the image is performed by comparing the pixels of the first image and the pixels of the second image only for the remaining portions except for a portion of the predetermined ratio by the server or the user of the mobile terminal, and the image is converted to a map, drawing or satellite image Device to match against.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200011269A KR102154950B1 (en) | 2020-01-30 | 2020-01-30 | Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200011269A KR102154950B1 (en) | 2020-01-30 | 2020-01-30 | Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102154950B1 true KR102154950B1 (en) | 2020-09-10 |
Family
ID=72450396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200011269A KR102154950B1 (en) | 2020-01-30 | 2020-01-30 | Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102154950B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114115363A (en) * | 2021-12-04 | 2022-03-01 | 中国人民解放军国防科技大学 | Multi-unmanned aerial vehicle unknown indoor space exploration method based on dynamic target tracking |
WO2022145549A1 (en) * | 2020-12-31 | 2022-07-07 | 주식회사 드론오렌지 | Bidirectional augmented reality platform using drone space information |
KR20220158570A (en) * | 2021-05-24 | 2022-12-01 | 이재영 | Drone used 3d mapping method |
KR20220166689A (en) * | 2021-06-10 | 2022-12-19 | 이재영 | Drone used 3d mapping method |
KR20220169342A (en) * | 2021-06-18 | 2022-12-27 | 이재영 | Drone used 3d mapping method |
CN115861591A (en) * | 2022-12-09 | 2023-03-28 | 南京航空航天大学 | Unmanned aerial vehicle positioning method based on transform key texture coding matching |
JP7375066B2 (en) | 2021-03-02 | 2023-11-07 | ネイバーラボス コーポレーション | Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircraft |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101854181B1 (en) * | 2017-10-20 | 2018-05-04 | 이병섭 | Target search system using an unmanned aerial vehicle |
KR20190051704A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone |
-
2020
- 2020-01-30 KR KR1020200011269A patent/KR102154950B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101854181B1 (en) * | 2017-10-20 | 2018-05-04 | 이병섭 | Target search system using an unmanned aerial vehicle |
KR20190051704A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022145549A1 (en) * | 2020-12-31 | 2022-07-07 | 주식회사 드론오렌지 | Bidirectional augmented reality platform using drone space information |
JP7375066B2 (en) | 2021-03-02 | 2023-11-07 | ネイバーラボス コーポレーション | Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircraft |
KR20220158570A (en) * | 2021-05-24 | 2022-12-01 | 이재영 | Drone used 3d mapping method |
KR102525519B1 (en) | 2021-05-24 | 2023-04-24 | 이재영 | Drone used 3d mapping method |
KR20220166689A (en) * | 2021-06-10 | 2022-12-19 | 이재영 | Drone used 3d mapping method |
KR102567800B1 (en) | 2021-06-10 | 2023-08-16 | 이재영 | Drone used 3d mapping method |
KR20220169342A (en) * | 2021-06-18 | 2022-12-27 | 이재영 | Drone used 3d mapping method |
KR102567799B1 (en) | 2021-06-18 | 2023-08-16 | 이재영 | Drone used 3d mapping method |
CN114115363A (en) * | 2021-12-04 | 2022-03-01 | 中国人民解放军国防科技大学 | Multi-unmanned aerial vehicle unknown indoor space exploration method based on dynamic target tracking |
CN115861591A (en) * | 2022-12-09 | 2023-03-28 | 南京航空航天大学 | Unmanned aerial vehicle positioning method based on transform key texture coding matching |
CN115861591B (en) * | 2022-12-09 | 2024-02-02 | 南京航空航天大学 | Unmanned aerial vehicle positioning method based on transformer key texture coding matching |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102154950B1 (en) | Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image | |
KR102129408B1 (en) | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map | |
US10339663B2 (en) | Generating georeference information for aerial images | |
KR102003187B1 (en) | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle | |
KR101797006B1 (en) | Land research system using drones and method thereof | |
Yahyanejad et al. | Incremental mosaicking of images from autonomous, small-scale uavs | |
RU2741443C1 (en) | Method and device for sampling points selection for surveying and mapping, control terminal and data storage medium | |
KR102269792B1 (en) | Method and apparatus for determining altitude for flying unmanned air vehicle and controlling unmanned air vehicle | |
Rijsdijk et al. | Unmanned aerial systems in the process of juridical verification of cadastral border | |
US9460554B2 (en) | Aerial video annotation | |
US10733777B2 (en) | Annotation generation for an image network | |
CN110703805B (en) | Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium | |
JP2012137933A (en) | Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
Bevilacqua et al. | Digital technology and mechatronic systems for the architectural 3D metric survey | |
George et al. | Towards drone-sourced live video analytics for the construction industry | |
KR20210102889A (en) | Planning method, apparatus, control terminal and storage medium of survey and mapping sample points | |
JP7220784B2 (en) | Survey sampling point planning method, device, control terminal and storage medium | |
JP2020091640A (en) | Object classification system, learning system, learning data generation method, learned model generation method, learned model, discrimination device, discrimination method, and computer program | |
CN113034347A (en) | Oblique photographic image processing method, device, processing equipment and storage medium | |
KR102364615B1 (en) | Method and apparatus for determining route for flying unmanned air vehicle and controlling unmanned air vehicle | |
KR102366947B1 (en) | METHOD AND APPARATUS FOR CONTROLLING UNMANNED AIR VEHICLE ON WHICH LiDAR IS MOUNTED | |
KR102364614B1 (en) | Method and apparatus for determining group flight route for group flying unmanned air vehicles and controlling unmanned air vehicles | |
KR20210106422A (en) | Job control system, job control method, device and instrument | |
CN115460539A (en) | Method, device, medium and program product for acquiring electronic fence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |