KR102003187B1 - Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle - Google Patents
Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle Download PDFInfo
- Publication number
- KR102003187B1 KR102003187B1 KR1020190069829A KR20190069829A KR102003187B1 KR 102003187 B1 KR102003187 B1 KR 102003187B1 KR 1020190069829 A KR1020190069829 A KR 1020190069829A KR 20190069829 A KR20190069829 A KR 20190069829A KR 102003187 B1 KR102003187 B1 KR 102003187B1
- Authority
- KR
- South Korea
- Prior art keywords
- gcp
- images
- gcps
- points
- point
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
Abstract
Description
실시예들은 드론과 같은 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지에 대한 측량을 수행하는 방법 및 장치에 관한 것으로, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치와 관련된다.Embodiments relate to a method and apparatus for performing a survey on a survey site using images photographed by a unmanned aerial vehicle such as a drone, And a method and apparatus for modeling a resultant image, each of the ground control points being matched.
측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다.Surveying is an indispensable task in building a building or facility.
측량 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. In surveying a survey site (for example, a commercial site), there are cases where a person can not directly measure at least part of the survey site due to environmental or geographical factors of the survey site. In this case, measurements can be made on the survey site using a unmanned aerial vehicle such as a drone. By using images (photographs) of survey sites photographed using an unmanned aerial vehicle for surveying, surveying can be possible for areas that can not be directly measured by people at the survey site.
무인 비행체를 사용하여 측량을 수행하는 경우에 있어서는, 무인 비행체에 의해 촬영된 이미지들에 대해 측량 대상지에서 실제로 측량된 지상기준점(Ground Control Point; GCP)을 매칭시키는 내업 작업이 수행되어야 한다. 촬영된 이미지들의 크기가 크고 그 수가 방대한 경우 이러한 내업 작업은 많은 시간과 자원의 소모를 요구한다. 또한, 수작업으로 이와 같은 매칭을 수행하는 경우, GCP와 촬영된 이미지 간의 매칭의 정확성이 담보되기 어렵다. In the case of performing the survey using the unmanned aerial vehicle, the inner work of matching the ground control point (GCP) actually measured on the survey site to the images taken by the unmanned aerial vehicle should be performed. If the size of the photographed images is large and the number of them is large, such internal work requires a great deal of time and resources. In addition, when performing such matching manually, it is difficult to guarantee the accuracy of the matching between the GCP and the photographed image.
따라서, 측량 대상지에 대해 실제로 측량된 GCP를 무인 비행체를 사용하여 촬영된 이미지(들)에 대해 정확하고 빠르게 매칭시킬 수 있으며, 이에 따라, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지와 같은 캘리브레이션된 결과 이미지를 편리하게 생성할 수 있는 방법 및 장치가 요구된다.Accordingly, the GCP actually measured for the survey site can be accurately and quickly matched to the image (s) photographed using the unmanned aerial vehicle, and thus, a calibration result such as a two-dimensional high-precision registration image or a three- There is a need for a method and apparatus that can conveniently generate images.
한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Registered Patent No. 10-1532582 (June 24, 2015) discloses a method for processing cadastral survey data. In order to register the land in the land study or restore the boundaries registered in the cadastral study on the land surface, In order to efficiently and systematically maintain and manage the obtained cadastral survey data when setting a reference point to measure the boundary or area of the cadastral survey data.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only and may include content that does not form part of the prior art and may not include what the prior art has to offer to the ordinary artisan.
일 실시예는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지를 모델링하는 방법을 제공할 수 있다. One embodiment uses each of a plurality of GCPs including location information by surveying on a survey site using a plurality of images taken by an unmanned aerial vehicle flying a path that includes a plurality of waypoints on a survey site And provide a method of modeling the matched resultant image.
일 측면에 있어서, 컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하는 단계, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계, 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는 단계, 상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키는 단계 및 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법이 제공된다. According to an aspect, there is provided an image processing method comprising the steps of: using a plurality of images taken by an unmanned aerial vehicle flying through a path including a plurality of waypoints on a survey site, performed by a computer system, A method of modeling a resultant image in which a plurality of GCPs (Ground Control Points) including a plurality of GCPs are matched, the method comprising: photographing the survey site including points corresponding to the plurality of GCPs; The method comprising: determining a waypoint associated with each point in the plurality of waypoints corresponding to the plurality of GCPs; identifying first ones of the plurality of images including the determined waypoint; Determining a center point of each point by analyzing first images, Matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs; and determining each of the estimated GCPs associated with the points as an estimated GCP associated with each of the points, There is provided a method of modeling a resultant image, the method comprising modeling a two- or three-dimensional result image using the plurality of images and a result of matching the plurality of GCPs.
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 측량 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 측량 대상지의 일부를 촬영한 것일 수 있다. Wherein the plurality of images are obtained by photographing the survey site so as to have a predetermined rate of overlapping of photographs, and each of the plurality of images may be obtained by photographing a part of the survey site.
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것일 수 있다. A GCP recognition plate may be disposed at each of the points corresponding to the plurality of GCPs of the survey target site, and the plurality of images may be obtained by photographing the survey target site on which the GCP recognition plate is disposed.
상기 각 지점의 중심점을 결정하는 단계는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정할 수 있다. The step of determining the center point of each of the points may determine a center point of the GCP recognition plate disposed at each of the points and may determine the center point of the GCP recognition plate as the estimated GCP.
상기 각 지점의 중심점을 결정하는 단계는, 상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정할 수 있다. The step of determining the center point of each point may include analyzing the first images using a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, The center point of each point can be determined.
상기 매칭시키는 단계는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 단계, 상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하는 단계 및 상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는 단계를 포함할 수 있다. The matching step includes recognizing an outline of a graphic object corresponding to the GCP recognition plate disposed at each of the points, extracting a pixel value corresponding to a center point of the graphic object based on the recognized outline, Of the GCP with the coordinate value of the GCP corresponding to each of the plurality of GCPs.
상기 매칭시키는 단계는, 상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 도형의 외곽선을 인식하고, 상기 도형의 중심점에 해당하는 픽셀 값을 추출할 수 있다. The matching step may include recognizing an outline of the figure using a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, The corresponding pixel value can be extracted.
상기 외곽선을 인식하는 단계는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 복수 개의 외곽선들을 인식하는 단계 및 상기 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정하는 단계를 포함하고, 상기 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제될 수 있다. Wherein the step of recognizing the outline includes recognizing a plurality of outlines of a graphic form corresponding to the GCP recognition plate disposed at each of the points and determining an average of the plurality of outlines as an outline of the graphic, An outline beyond a predetermined standard deviation among a plurality of outlines may be excluded from the calculation of the average.
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계는, 상기 복수의 웨이 포인트들 중 상기 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정할 수 있다. The step of determining a waypoint associated with each of the plurality of points may determine a closest waypoint for each of the plurality of waypoints as a waypoint associated with each of the plurality of waypoints.
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계에서, 상기 복수의 웨이 포인트들 중 하나의 웨이 포인트는 상기 지점들 중 하나의 지점과 연관될 수 있다. In determining the waypoint associated with each of the points, one waypoint of the plurality of waypoints may be associated with one of the points.
상기 결과 이미지는, 상기 복수의 이미지들이 합성됨으로써 생성되는 상기 측량 대상지에 대한 단일한 이미지로서, 상기 지점들의 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지일 수 있다. The resultant image may be a single image for the survey site generated by combining the plurality of images and may be a calibrated image according to a result of matching each of the estimated GCPs of the points to each of the plurality of GCPs .
다른 일 측면에 있어서, 컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정하는 단계, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계; 상기 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정하는 단계; 상기 결정된 제1 지점의 중심점을 상기 제1 지점과 연관된 추정 GCP로서, 상기 제1 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 제1 지점에 대응하는 GCP와 매칭시키는 단계; 상기 웨이 포인트를 결정하는 단계, 상기 식별하는 단계, 상기 중심점을 결정하는 단계 및 상기 매칭시키는 단계를 상기 지점들의 각각에 대해 수행하는 단계; 및 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법이 제공된다. According to another aspect, there is provided an image processing method comprising the steps of: using a plurality of images taken by an unmanned aerial vehicle flying through a path including a plurality of waypoints on a survey site, performed by a computer system, Wherein the plurality of images are images of the survey site including points corresponding to the plurality of GCPs, the method comprising the steps of: Determining a waypoint associated with a first one of the plurality of waypoints corresponding to the plurality of GCPs, identifying first ones of the plurality of images including the determined waypoint, ; Determining a center point of the first point by analyzing the first images; Matching an estimated GCP associated with the first point to a GCP corresponding to the first one of the plurality of GCPs, the estimated GCP associated with the first point being a center point of the determined first point; Determining the waypoint, identifying the step, determining the center point, and performing the matching on each of the points. And modeling the resulting image, wherein each of the plurality of GCPs is associated with each of the plurality of GCPs, and modeling a two- or three-dimensional result image using the plurality of images. Method is provided.
또 다른 일 측면에 있어서, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 컴퓨터 시스템에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 이미지들을 획득하는 이미지 획득부 및According to another aspect, there is provided a method for measuring a position of a measurement target, comprising: a plurality of GCPs including position information by measurement on the measurement target site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints Wherein each of the plurality of images includes a point corresponding to the plurality of GCPs, and wherein the plurality of images include a plurality of GCPs, An image acquiring unit
상기 획득된 복수의 이미지들을 분석 및 처리하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하고, 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하고, 상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키고, 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는, 컴퓨터 시스템이 제공된다. And a processor for analyzing and processing the acquired plurality of images, wherein the processor determines a waypoint associated with each point of points corresponding to the plurality of GCPs of the plurality of waypoints, Determining a center point of each point by analyzing the first images, determining a center point of each determined point as an estimated GCP associated with each of the points, Matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs; matching each of the estimated GCPs associated with the points to each of the plurality of GCPs; Lt; RTI ID = 0.0 > 2D < / RTI >
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것일 수 있다. A GCP recognition plate may be disposed at each of the points corresponding to the plurality of GCPs of the survey target site, and the plurality of images may be obtained by photographing the survey target site on which the GCP recognition plate is disposed.
상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정할 수 있다. The processor may determine a center point of the GCP recognition plate disposed at each of the points and determine the center point of the GCP recognition plate as the estimated GCP.
상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하고, 상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하고, 상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시킬 수 있다.The processor recognizes an outline of a graphic object corresponding to a GCP recognition plate disposed at each of the points, extracts a pixel value corresponding to a center point of the graphic object based on the recognized outline, With the coordinate values of the GCPs corresponding to the respective points among the plurality of GCPs.
실제 측량에 근거한 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고, 결정된 웨이 포인트를 포함하는 제1 이미지들을, GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 분석함으로써, 복수의 GCP들의 각각에 대응하는 지점의 중심점(추정 GCP, AIGCP)을 정확하게 결정할 수 있다. 또한, 이러한 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여, 추정 GCP(즉, AIGCP)를 실제의 GCP와 매칭시킴으로써, 매칭의 정확도를 높일 수 있다. Determining a waypoint associated with each point in a plurality of points corresponding to a plurality of GCPs based on the actual surveying and comparing the first images containing the determined waypoints to a machine learning model trained in the shape of a GCP awareness plate, Neural Network) model or a DNN (Deep Neural Network) model, it is possible to accurately determine a center point (estimated GCP, AIGCP) of a point corresponding to each of a plurality of GCPs. In addition, matching of the estimated GCP (i.e., AIGCP) with the actual GCP can be improved by using such a machine learning model, CNN model, or DNN model.
실시예에 의해서는 GCP를 무인 비행체에 의해 촬영된 이미지들에 대해 매칭시키는 내업 작업을 수작업으로 수행할 필요 없고, 이러한 GCP와 촬영된 이미지들 간의 매칭이 자동으로 정확하고 신속하게 수행될 수 있다. According to the embodiment, there is no need to manually perform an inner work task of matching the GCP with images photographed by the unmanned aerial vehicle, and the matching between the GCP and the photographed images can be automatically and accurately performed.
또한, 결과 이미지로서의 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지가 손쉽게 생성될 있으며, 무인 비행체를 사용하는 측량에 있어서 요구되는 내업 작업에 의한 자원 및 시간의 소비의 효율화를 도모할 수 있다. In addition, a two-dimensional high-precision matching image or a three-dimensional modeling image as a result image can be easily generated, and resource and time consumption can be efficiently consumed due to internal work required for a survey using an unmanned aerial vehicle.
도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 결과 이미지를 모델링하는 컴퓨터 시스템과 측량 대상지를 촬영하는 무인 비행체의 구조를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 이미지 분석에 기반하여 결정된 추정 GCP(즉, AIGCP)와 측량 대상지에서 측량된 GCP를 매칭시키는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 측량 대상지에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 무인 비행체가 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행함으로써 측량 대상지를 촬영하는 방법을 나타낸다.
도 7은 일 예에 따른, 무인 비행체에 의해 촬영된 복수의 이미지들과, GCP와 연관된 웨이 포인트 및 해당 웨이 포인트를 포함하는 이미지들을 결정하는 방법을 나타낸다.
도 8은 일 예에 따른, 무인 비행체에 의해 촬영된 이미지를 캘리브레이션된 결과 이미지로서 모델링하는 방법을 나타낸다. FIG. 1 illustrates a method of modeling a matching result image using a GCP including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating the structure of a computer system for modeling a resultant image and an unmanned aerial vehicle for photographing a survey site, according to an embodiment.
3 is a flowchart illustrating a method of modeling a GCP matching result image including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an embodiment.
4 is a flow diagram illustrating a method for matching an estimated GCP (i.e., AIGCP) determined based on image analysis and a GCP surveyed at a survey site, according to an example.
5 is a flowchart illustrating a method of recognizing an outline of a figure corresponding to a GCP recognition plate disposed on a survey site according to an example.
FIG. 6 illustrates a method of photographing a survey site by flying a path including a plurality of waypoints on a measurement target, according to an example.
FIG. 7 illustrates a method for determining a plurality of images taken by an unmanned aerial vehicle, a waypoint associated with a GCP, and images including the waypoint, according to an example.
FIG. 8 shows a method of modeling an image photographed by an unmanned aerial vehicle as a calibrated resultant image, according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타낸다.FIG. 1 illustrates a method of modeling a matching result image using a GCP including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
도 1을 참조하여, 무인 비행체(110)를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체(110)에 의해 촬영된 측량 대상지(120)의 이미지들을 사용하여 캘리브레이션된 결과 이미지(130)를 모델링하는 방법에 대해 설명한다. 1, a
측량 대상지(120)는 상업지, 건축 예정지 등을 비롯한 측량의 대상이 되는 구역(토지의 구역)을 나타낼 수 있다. The
도시된 무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 측량 대상지(120) 상의 소정의 경로를 비행하면서 측량 대상지(120)를 촬영할 수 있다. 촬영된 측량 대상지(120)의 복수의 이미지들은 컴퓨터 시스템(100)으로 전달될 수 있고, 컴퓨터 시스템(100)은 전달 받은 복수의 이미지들을 분석 및 처리함으로써 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. The illustrated unmanned
측량 대상지(120) 상에는 소정의 개수의 GCP들이 포함될 수 있고, 무인 비행체(110)는 이러한 GCP를 포함하여 측량 대상지(120)를 촬영할 수 있다. A predetermined number of GCPs may be included on the
GCP는 측량 대상지(120) 상의 기준이 되는 지점(지상기준점)으로서 실제 측량에 의해 위치 정보를 알고 있는 지점일 수 있다. 측량 대상지(120) 상에는 GCP에 대응하는 지점에 GCP 인식판이 배치될 수 있다. 측량자는 GCP 인식판이 배치된 지점을 측량함으로써 GCP의 위치 정보를 획득할 수 있다. 예컨대, 도시된 측량 대상지(120)에서는 4개의 GCP가 존재하며, 각 GCP에 해당하는 지점에 GCP 인식판이 배치될 수 있다. GCP의 위치 정보를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 전에 수행될 수 있다. 또는, GCP의 위치 정보를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 후에 수행될 수도 있다. 말하자면, 측량 대상지(120)에 GCP 인식판이 배치된 후에 무인 비행체(110)의 측량 대상지(120)에 대한 촬영이 수행되면 되고, GCP의 위치 정보(즉, GCP 인식판이 배치된 지점의 위치 정보)를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 전후에 언제라도 이루어질 수 있다. The GCP may be a reference point (ground reference point) on the
무인 비행체(110)는 이러한 GCP 인식판이 배치된 측량 대상지(120)를 촬영할 수 있고, 촬영에 따라 생성된 이미지들이 결과 이미지(130)의 모델링을 위해 사용될 수 있다.The unmanned
컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 이미지들을, 예컨대, 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 분석함으로써, 이미지들에 포함된 GCP에 해당하는 지점을 추정 GCP(즉, AIGCP)로서 식별할 수 있고, 식별된 추정 GCP를 실제 측량된 GCP에 매칭시킬 수 있다. The
컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 이미지들과 추정 GCP와 실제 측량된 GCP 간의 매칭 결과를 사용하여 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. The
결과 이미지(130)는 예컨대, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지일 수 있다. 모델링된 결과 이미지(130)는 측량 대상지(120)에 대한 건축 및 정밀 측량 등을 위해 사용될 수 있다. 예컨대, 2차원 고정밀 정합 이미지를 사용하여 측량 대상지(120)의 일부 영역의 넓이가 계산되거나, 계산된 넓이에 근거하여 사용될 건축 자재의 양이 계산될 수 있다. The resulting
실시예를 통해서는 무인 비행체(110)에 의해 촬영된 이미지들에 대해 실제 측량된 GCP의 위치 정보(예컨대, 위치 좌표)가 정확하게 매칭(맵핑)될 수 있다. 따라서, 이러한 매칭 작업과 관련된 내업 작업을 수작업으로 수행하는 것에 비해 시간 및 자원의 소모를 최소화할 수 있고, 매칭의 정확성 역시 비약적으로 높일 수 있다.The positional information (for example, the positional coordinates) of the actually measured GCP can be precisely matched (mapped) to the images photographed by the unmanned
컴퓨터 시스템(100) 및 무인 비행체(110)의 보다 상세한 구조 및 기능과, 무인 비행체(110)에 의해 촬영된 이미지들을 사용하여 측량 대상지(120)의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지(130)를 모델링하는 방법에 대해서는 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명된다. The detailed structure and function of the
도 2는 일 실시예에 따른, 결과 이미지를 모델링하는 컴퓨터 시스템과 측량 대상지를 촬영하는 무인 비행체의 구조를 나타내는 블록도이다. 2 is a block diagram illustrating the structure of a computer system for modeling a resultant image and an unmanned aerial vehicle for photographing a survey site, according to an embodiment.
도 2를 참조하여, 무인 비행체(110) 및 컴퓨터 시스템(100)의 구체적인 구성들이 설명된다. Referring to Fig. 2, specific configurations of the unmanned
도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 측량 대상지(120)를 비행하여 측량 대상지(120)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 일례로, 무인 비행체(110)는 플러그인 DGPS 드론 또는 플러그인 RTK 드론일 수 있다. As described above with reference to FIG. 1, the unmanned
무인 비행체(110)는 측량 대상지(120) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말)을 통해 소정의 경로를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 측량 대상지(120)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. 무인 비행체(110)의 측량 대상지(120)에 대한 복수의 웨이 포인트들을 포함하는 예시적인 비행 경로는 후술될 도 6을 참조하여 더 자세하게 설명된다.The unmanned
무인 비행체(110)는 경로 상의 각 웨이 포인트에서 측량 대상지(120)를 촬영할 수 있다. 이 때, 촬영된 이미지의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The unmanned
웨이 포인트는 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다. 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 촬영된 이미지의 중심점이 될 수 있다. 촬영된 이미지의 중심점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a position specified on the map, and its positional information (e.g., coordinate value) may be a known value. The position where the
무인 비행체(110)는 통신부(240), 카메라(250), 프로세서(260) 및 저장부(270)를 포함할 수 있다. The
통신부(240)는 무인 비행체(110)가 컴퓨터 시스템(100) 및 사용자 단말 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(240)는 무인 비행체(110)가 컴퓨터 시스템(100) 및 사용자 단말 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The
무인 비행체(110)는 통신부(240)를 통해 컴퓨터 시스템(100) 또는 사용자 단말과 통신하거나, 컴퓨터 시스템(100)으로 촬영된 이미지들을 전송할 수 있다. The unmanned
프로세서(260)는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서(260)는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서(260)는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.The
카메라(250)는 비행 중에 측량 대상지(120)를 촬영하기 위한 장치일 수 있다. 카메라(250)는 측량 대상지(120)를 촬영함으로써 이미지(이미지 파일)을 생성할 수 있다. The
저장부(270)는 카메라(250)에 의한 촬영에 의해 생성된 이미지를 저장하기 위한 스토리지를 포함할 수 있다. 저장부(270)는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부(270)는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The
컴퓨터 시스템(100)은 무인 비행체(110)로부터 측량 대상지(120)를 촬영한 이미지들을 획득하고, 획득된 이미지들을 분석함으로써 측량 대상지(120)에 대한 캘리브레이션된 결과 이미지(130)를 모델링(즉, 생성)하기 위한 장치일 수 있다. The
컴퓨터 시스템(100)은 무인 비행체(110)로부터 획득된 이미지들을 분석 및 처리하기 위한 서버 또는 기타 컴퓨팅 장치일 수 있다. 컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지(120) 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지(130)를 모델링할 수 있다. The
컴퓨터 시스템(100)은 예컨대, 스마트 폰, PC(personal computer), 서버용 컴퓨터, 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 컴퓨터 시스템(100)은 무인 비행체(110)과 통신하며 무인 비행체(110)를 제어하는 단말일 수 있다. 또는, 컴퓨터 시스템(100)은 도시된 것과는 달리 무인 비행체(110)에 내장되어 구성될 수도 있다. The
컴퓨터 시스템(100)은 이미지 획득부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The
이미지 획득부(210)는 무인 비행체(110)에 의해 촬영된 이미지들을 획득하기 위한 구성일 수 있다. 예컨대, 이미지 획득부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지들을 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지들을 획득할 수 있다. The
또한, 이미지 획득부(210)는 컴퓨터 시스템(100)의 통신부에 대응할 수 있다. 즉, 이미지 획득부(210)는 컴퓨터 시스템(100)이 무인 비행체(110) 및 서버 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 이미지 획득부(210)는 컴퓨터 시스템(100)이 무인 비행체(110) 및 서버 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 컴퓨터 시스템(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The
프로세서(220)는 컴퓨터 시스템(100)의 구성 요소들을 관리할 수 있고, 컴퓨터 시스템(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들을 분석 및 처리하고, 결과 이미지(130)를 모델링하기 위해 필요한 데이터와 연산을 수행할 수 있다. 프로세서(220)는 컴퓨터 시스템(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 프로세서(220)의 자세한 기능과 동작에 대해서는 후술될 도 3 내지 도 8을 참조하여 더 자세하게 설명한다. The
표시부(230)는 컴퓨터 시스템(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들 또는 모델링된 결과 이미지(130)를 출력하기 위한 디스플레이 장치일 수 있다. The
실시예에서, 컴퓨터 시스템(100)의 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들을 분석 및 처리함으로써 추정 GCP를 결정할 수 있고, 결정된 추정 GCP와 실제 측량에 근거한 GCP를 매칭시킬 수 있다. 프로세서(220)는 이러한 매칭의 결과와 무인 비행체(110)에 의해 촬영된 이미지들을 사용하여 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. In an embodiment, the
관련하여, 프로세서(220)의 추정 GCP를 결정하는 방법과, 결정된 추정 GCP와 실제 측량에 근거한 GCP 매칭하는 자세한 방법에 대해서는 후술될 도 3 내지 도 8을 참조하여 더 자세하게 설명한다.In this regard, a method of determining the estimated GCP of the
도 1을 참조하여 전술된 기술적 특징은 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIG. 1 can be applied to FIG. 2 as it is, so that redundant description is omitted.
도 3은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of modeling a GCP matching result image including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an embodiment.
도 3을 참조하여, 컴퓨터 시스템(100)에 의해 수행되는, 측량 대상지(120) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지(120) 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지(130)를 모델링하는 방법에 대해 설명한다. 3, using the plurality of images taken by the
단계(310)에서, 프로세서(220)는 이미지 획득부(210)를 통해 무인 비행체(110)에 의해 촬영된 측량 대상지(120)의 복수의 이미지들을 획득할 수 있다. 예컨대, 이미지들은 무인 비행체(110)로부터 유선 또는 무선을 통해 획득되거나, 무인 비행체(110)의 외부 메모리 장치를 통해 획득될 수 있다. The
복수의 이미지들은 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들을 포함하는 측량 대상지(120)를 촬영한 것일 수 있다. 예컨대, 측량 대상지(120)의 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치될 수 있고, 복수의 이미지들은 GCP 인식판이 배치된 측량 대상지(120)를 촬영한 것일 수 있다. The plurality of images may be taken of the
촬영된 복수의 이미지들의 각각은 측량 대상지(120)의 일부를 촬영한 것일 수 있다. 복수의 이미지들은 소정의 사진 중복률을 갖도록 측량 대상지(120)를 촬영한 것일 수 있고, 따라서, 복수의 이미지들은 측량 대상지(120)를 전체 영역을 빠짐 없이 포함하게 될 수 있다. 소정의 사진 중복률은 예컨대, 60% 내지 80%일 수 있다. Each of the plurality of photographed images may have photographed a part of the
무인 비행체(110)는 경로 상의 각 웨이 포인트에서 측량 대상지(120)를 촬영할 수 있고, 이 때, 촬영된 이미지의 중심은 해당 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The
웨이 포인트는 무인 비행체(110)의 경로 설정을 위한 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a position designated on a map for setting the path of the
단계(320)에서, 프로세서(220)는 무인 비행체(110)의 (비행) 경로가 포함하는 복수의 웨이 포인트들 중 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정할 수 있다. In
일례로, 프로세서(220)는 무인 비행체(110)의 경로가 포함하는 복수의 웨이 포인트들 중 GCP들에 대응하는 지점들의 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정할 수 있다. In one example, the
단계(320)의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정하는 단계에 있어서, 무인 비행체(110)의 경로가 포함하는 복수의 웨이 포인트들 중 하나의 웨이 포인트는 GCP들에 대응하는 지점들 중 하나의 지점과만 연관되는 것으로 결정될 수 있다. GCP들에 대응하는 지점들 중 하나의 지점에 대해 둘 이상이 웨이 포인트들이 연관되는 것으로 결정된 경우, 프로세서(220)는 하나의 웨이 포인트를 제외한 나머지는 무시할 수 있다. Determining a waypoint associated with each point of the points corresponding to the GCPs of
다만, GCP들에 대응하는 지점들 중 하나의 지점은 복수의 웨이 포인트들과 연관될 수도 있다. 말하자면, GCP들에 대응하는 지점과 웨이 포인트 간에는 1 대 다의 연관 관계가 있을 수 있으나, 그 역은 성립하지 않을 수 있다. However, one of the points corresponding to the GCPs may be associated with a plurality of waypoints. In other words, there may be a one-to-many association between a point corresponding to a GCP and a waypoint, but the inverse may not hold.
또는, 단계(320)의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정하는 단계에 있어서, 하나의 웨이 포인트/하나의 지점은 해당 하나의 웨이 포인트/하나의 지점과 가장 가까운 하나의 지점/하나의 웨이 포인트와만 연관되는 것으로 결정될 수도 있다. Or determining a waypoint associated with each point of the points corresponding to the GCPs of
단계(330)에서, 프로세서(220)는 촬영된 복수의 이미지들 중에서 단계(320)에서 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별할 수 있다. 말하자면, 프로세서(220)는 촬영된 복수의 이미지들 중에서 GCP들에 대응하는 지점들의 각 지점과 연관되는 것으로 결정된 웨이 포인트를 포함하는 이미지들을 제1 이미지들로서 식별할 수 있다.At
단계(340)에서, 프로세서(220)는 식별된 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. 즉, 단계(330)에서 식별된 제1 이미지들은 단계(340)에서 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정하기 위한 분석의 대상이 되는 이미지들일 수 있다. At
일반적으로, 무인 비행체(110)에 의해 촬영된 이미지는 그 수가 매우 많으며 각 이미지의 용량 또한 매우 크므로, 무인 비행체(110)에 의해 촬영된 모든 이미지를 단계(340)에서 분석하는 것은 비효율적일 수 있다. In general, since the number of images taken by the unmanned
이러한 문제를 해결하기 위해, 실시예에서는 단계(330)에 의해 단계(320)에서 결정된 웨이 포인트를 포함하는 제1 이미지들을 먼저 식별하고, 식별된 제1 이미지들을 대상으로 이미지 분석을 수행하여 해당 결정된 웨이 포인트와 연관된 지점의 중심점을 결정할 수 있다. 따라서, 실시예를 통해서는 보다 빠른 이미지의 분석 처리 및 각 지점의 중심점 결정의 처리가 이루어질 수 있다. In order to solve this problem, in the embodiment, the first images including the waypoint determined in
GCP들에 대응하는 지점들의 각 지점의 중심점을 결정하는 것은, 해당 각 지점에 배치된 GCP 인식판의 중심점을 결정하는 것일 수 있다. Determining the center point of each point of the points corresponding to the GCPs may be to determine the center point of the GCP recognition plate disposed at each of the points.
GCP 인식판의 중심점을 결정함에 있어서는, GCP 인식판의 형상(학습 도형)을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델이 사용될 수 있다. GCP 인식판의 형상은 예컨대, 원형 또는 사각형일 수 있고, GCP 인식판은 원형 또는 사각형 내에 X 또는 H와 같은 기호가 표시된 것일 수 있다. In determining the center point of the GCP recognition plate, a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained can be used. The shape of the GCP recognition plate may be, for example, a circle or a quadrangle, and the GCP recognition plate may be indicated by a symbol such as X or H in a circle or a rectangle.
프로세서(220)는 이러한 훈련된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. The
프로세서(220)는 단계(340)에서 결정된 각 지점의 중심점을 추정 GCP로서 결정할 수 있다. 추정 GCP는 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석한 결과에 따라 결정되는 것이라는 점에서 AIGCP라고도 명명될 수 있다. The
머신러닝 모델, CNN 모델 또는 DNN 모델을 사용한 훈련은 컴퓨터 시스템(100)에 의해 수행될 수도 있고, 컴퓨터 시스템(100) 외부의 별도의 서버에 의해 수행될 수도 있다. 예컨대, 프로세서(220)는 외부의 별도의 서버에서 구축된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. Training using the machine learning model, the CNN model, or the DNN model may be performed by the
프로세서(220)는 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점에 배치된 GCP 인식판의 중심점을 (해당 각 지점과 연관된) 추정 GCP로서 결정할 수 있다. The
단계(350)에서, 프로세서(220)는 단계(340)에서 결정된 각 지점의 중심점을 해당 각 지점과 연관된 추정 GCP로서, 상기 추정 GCP를 (실제 측량에 근거한) 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시킬 수 있다. 프로세서(220)는 추정 GCP를 실제 측량에 근거한 GCP와 매칭시키는 작업을 수행함에 있어서, 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용할 수 있다. At
프로세서(220)는 각 지점에 대응하는 실제 측량에 근거한 GCP의 위치 정보(예컨대, 좌표 값)를 해당 각 지점과 연관된 추정 GCP의 위치 정보로 맵핑시킴으로써, 추정 GCP를 실제 측량에 근거한 GCP에 매칭시킬 수 있다.
추정 GCP를 실제 측량에 근거한 GCP에 매칭시키는 보다 구체적인 방법에 대해서는 후술될 도 4 및 도 5를 참조하여 더 자세하게 설명된다.A more specific method of matching the estimated GCP to the GCP based on the actual measurement will be described in more detail with reference to FIGS. 4 and 5, which will be described later.
단계(350)에 따라, 촬영된 이미지들로부터 결정된 모든 추정 GCP들의 각각이 실제 측량에 근거한 GCP들의 각각에 매칭될 수 있다. According to step 350, each of all the estimated GCPs determined from the photographed images may be matched to each of the GCPs based on the actual measurement.
단계(360)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들에 대응하는 지점들과 연관된 추정 GCP들의 각각(즉, 단계(350)을 통해 추정된 추정된 GCP들 각각)을 상기 복수의 GCP들의 각각에 매칭시킨 결과와, 촬영된 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지(130)를 모델링할 수 있다. At
결과 이미지(130)는 복수의 이미지들이 합성됨으로써 생성되는 측량 대상지(120)에 대한 단일한 이미지로서, 결정된 추정 GCP들의 각각을 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지일 수 있다. 결과 이미지(130)에 대해서는 후술될 도 8을 참조하여 더 자세하게 설명된다. The resulting
단계(350)에 따른 매칭 작업의 수행에 따라, 촬영된 이미지들이 포함하는 오차가 교정(calibration)될 수 있다. 따라서, 단계(360)에 의해 모델링되어 생성된 결과 이미지(130)는 정확한 측량 데이터(위치 정보)를 포함할 수 있다. With the performance of the matching operation according to step 350, the error contained in the photographed images can be calibrated. Thus, the resulting
도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as it is, so that redundant description is omitted.
도 4는 일 예에 따른, 이미지 분석에 기반하여 결정된 추정 GCP(즉, AIGCP)와 측량 대상지에서 측량된 GCP를 매칭시키는 방법을 나타내는 흐름도이다. 4 is a flow diagram illustrating a method for matching an estimated GCP (i.e., AIGCP) determined based on image analysis and a GCP surveyed at a survey site, according to an example.
도 4를 참조하여, 전술된 단계(350)에 대해 더 자세하게 설명한다.Referring to Fig. 4, the above-described
단계(410)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들의 각각에 대응하는 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식할 수 있다. At
단계(420)에서, 프로세서(220)는 인식된 외곽선에 기반하여 도형의 중심점에 해당하는 픽셀(예컨대, 픽셀 값)을 추출할 수 있다. At
단계(430)에서, 프로세서(220)는 추출된 픽셀(픽셀 값)에 대응하는 위치를, 실제 측량에 근거한 복수의 GCP들 중에서 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시킬 수 있다. 말하자면, 프로세서(220)는 추출된 GCP 인식판의 중심점에 해당하는 픽셀의 위치에 해당 GCP 인식판의 위치 정보를 실제로 측량함으로써 획득된 좌표 값을 맵핑할 수 있다.In
전술한 단계들(410 내지 430)에 의해, 결정된 추정 GCP 및 실제 측량에 근거한 GCP 간의 매칭이 완료될 수 있다. By the above-described
한편, 단계(350)의 매칭에 있어서는, GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN 모델 또는 DNN 모델이 사용될 수 있다. 프로세서(220)는 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 GCP 인식판에 대응하는 도형의 외곽선을 인식할 수 있고, 해당 도형의 중심점에 해당하는 픽셀 값을 추출할 수 있다. On the other hand, in the matching of the
전술한 것처럼, 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용한 훈련은 컴퓨터 시스템(100)에 의해 수행될 수도 있고, 컴퓨터 시스템(100) 외부의 별도의 서버에 의해 수행될 수도 있다. 예컨대, 프로세서(220)는 외부의 별도의 서버에서 구축된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 GCP 인식판에 대응하는 도형의 외곽선을 인식하고 그 중심점에 해당하는 픽셀 값을 추출할 수 있다. As described above, training using a machine learning model, a CNN model, or a DNN model may be performed by the
도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as it is, so that redundant description is omitted.
도 5는 일 예에 따른, 측량 대상지에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of recognizing an outline of a figure corresponding to a GCP recognition plate disposed on a survey site according to an example.
도 5를 참조하여, 전술된 단계(410)에 대해 더 자세하게 설명한다.With reference to Fig. 5, step 410 described above will be described in more detail.
단계(510)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들의 각각에 대응하는 각 지점에 배치된 GCP 인식판에 대응하는 도형에 대해 복수 개의 외곽선들을 인식할 수 있다. At
단계(520)에서, 프로세서(220)는 인식된 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정할 수 있다. 단계(520)에서 도형의 외곽선을 결정함에 있어서는 보간법(interporation)이 사용될 수 있다.In
예컨대, 프로세서(220)는 단계(510)에서 인식된 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제할 수 있고, 나머지의 외곽선들을 사용하여 평균을 계산함으로써 상기 도형에 대한 외곽선을 결정할 수 있다. For example, the
도 3 내지 5를 참조하여 설명된 실시예에 의해, 각 GCP에 대응하는 GCP 인식판의 중심점이 보다 정확하게 결정될 수 있고, 따라서, 해당 중심점에 대한 GCP의 매칭의 높은 정확도가 달성될 수 있다. 3 to 5, the center point of the GCP awareness plate corresponding to each GCP can be determined more accurately, and therefore, a high accuracy of matching of the GCP to the center point can be achieved.
또한, 실시예에 의해서는, 실제 측량에 근거한 GCP를 촬영된 이미지(들)에 대해 수작업으로 매칭시키는 작업이 요구되지 않고, 이러한 매칭이 자동으로 수행될 수 있는 바, 결과 이미지(130) 모델링에 있어서의 효율성이 극대화될 수 있다. Also, according to the embodiment, there is no need to manually match the GCP based on the actual measurement to the photographed image (s), and such matching can be performed automatically, resulting in modeling of the resulting
도 3을 참조하여 전술된 단계들은, 다음과 같은 순서에 따라 수행될 수도 있다.The steps described above with reference to Fig. 3 may be performed in the following order.
예컨대, 프로세서(220)는 무인 비행체(110)의 (비행) 경로가 포함하는 복수의 웨이 포인트들 중 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정할 수 있다(제1 단계). 프로세서(220)는 촬영된 복수의 이미지들 중 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별할 수 있다(제2 단계). 프로세서(220)는 식별된 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정할 수 있다(제3 단계). 프로세서(220)는 결정된 제1 지점의 중심점을 제1 지점과 연관된 추정 GCP로서 결정할 수 있고, 결정된 제1 지점과 연관된 추정 GCP를 실제 측량에 근거한 복수의 GCP들 중 제1 지점에 대응하는 GCP와 매칭시킬 수 있다(제4 단계). 프로세서(220)는 상기 제1 단계 내지 제4 단계를 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들의 각각에 대해 수행할 수 있다(제5 단계).For example, the
다음으로, 프로세서(220)는 결정된 추정 GCP들의 각각을 실제 측량에 근거한 복수의 GCP들의 각각에 매칭시킨 결과와, 촬영된 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지(130)를 모델링할 수 있다. Next, the
도 1 내지 도 4를 참조하여 전술된 기술적 특징은 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 4 can be applied to FIG. 5 as it is, so that redundant description will be omitted.
도 6은 일 예에 따른, 무인 비행체가 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행함으로써 측량 대상지를 촬영하는 방법을 나타낸다.FIG. 6 illustrates a method of photographing a survey site by flying a path including a plurality of waypoints on a measurement target, according to an example.
도 6에서는 무인 비행체(110)가 비행하는 복수의 웨이 포인트들(610)을 포함하는 경로와, 측량 대상지(600)에 표시된 GCP들(620)이 도시되었다. 도시된 GCP들(620)의 각각은 측량 대상지(600)에 배치된 GCP 인식판을 나타낼 수 있다. 측량 대상지(600)는 전술된 측량 대상지(120)에 대응할 수 있다. In FIG. 6, a route including a plurality of waypoints 610 through which the
무인 비행체(110)는 웨이 포인트들(610)을 통과하도록 비행할 수 있고, 각 웨이 포인트에서 측량 대상지(600)를 촬영할 수 있다. 측량 대상지(600)를 촬영한 이미지들은 소정의 중복도를 가지도록 촬영된 것일 수 있고, 따라서, 무인 비행체(110)는 측량 대상지(600)를 빠짐 없이 촬영할 수 있게 된다. The unmanned
프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들로부터, 각 GCP에 대응하는 지점과 연관된 웨이 포인트를 결정할 수 있다. 예컨대, 도시된 것처럼, 프로세서(220)는 GCP(a)에 대응하는 지점과 연관된 웨이 포인트(A)를 결정할 수 있고, GCP(b)에 대응하는 지점과 연관된 웨이 포인트(B)를 결정할 수 있고, GCP(c)에 대응하는 지점과 연관된 웨이 포인트(C)를 결정할 수 있고, GCP(d)에 대응하는 지점과 연관된 웨이 포인트(D)를 결정할 수 있다. The
프로세서(220)는 웨이 포인트(A)를 포함하는 이미지들을 분석함으로써 GCP(a)에 대응하는 지점의 중심점을 결정할 수 있고, 결정된 중심점을 GCP(a)에 대한 추정 GCP로서 결정할 수 있다. 프로세서(220)는 결정된 추정 GCP를 GCP(a)와 매칭시킬 수 있다. 프로세서(220)는 웨이 포인트(B 내지 D)와 GCP(b 내지 d)에 대해서도 동일한 과정을 반복할 수 있다. The
프로세서(220)는 매칭된 결과 및 촬영된 이미지들을 사용하여 결과 이미지(130)를 모델링할 수 있다. 결과적으로, 추정 GCP와 실제 측량에 근거한 GCP 간의 매칭 작업에 따라, 촬영된 이미지들이 포함하는 오차가 교정된 결과 이미지(130)가 생성될 수 있다.
도 1 내지 도 5를 참조하여 전술된 기술적 특징은 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 5 may be applied to FIG. 6 as it is, so that redundant description is omitted.
도 7은 일 예에 따른, 무인 비행체에 의해 촬영된 복수의 이미지들과, GCP와 연관된 웨이 포인트 및 해당 웨이 포인트를 포함하는 이미지들을 결정하는 방법을 나타낸다.FIG. 7 illustrates a method for determining a plurality of images taken by an unmanned aerial vehicle, a waypoint associated with a GCP, and images including the waypoint, according to an example.
이미지들(710-1 내지 740-4)의 각각은 무인 비행체(110)에 의해 촬영된 이미지를 나타낼 수 있다. 도시된 것처럼, 이미지들(710-1 내지 740-4)은 소정의 중복도를 가질 수 있다. Each of the images 710-1 through 740-4 may represent an image photographed by the unmanned
이미지들(710-1 내지 740-4)의 각각은 웨이 포인트들(710)의 각각에서 촬영된 것일 수 있고, 웨이 포인트들(710)의 각각이 이미지들(710-1 내지 740-4)의 각각의 중심점이 될 수 있다.Each of the images 710-1 through 740-4 may have been photographed at each of the waypoints 710 and each of the waypoints 710 may be photographed at each of the images 710-1 through 740-4 It can be a center point of each.
도시된 예시와 같이, GCP(a)에 대응하는 지점과 가장 가까운 웨이 포인트(A)가 GCP(a)에 대응하는 지점과 연관된 웨이 포인트로서 결정될 수 있다. 이 때, 웨이 포인트(A)를 포함하는 이미지들(710-2 내지 740-4)이 단계(330)을 참조하여 전술된 제1 이미지들로서 식별될 수 있고, 단계(340)의 이미지 분석의 대상으로서 결정될 수 있다. As shown in the illustrated example, the waypoint A closest to the point corresponding to GCP (a) may be determined as a waypoint associated with a point corresponding to GCP (a). At this time, the images 710-2 to 740-4 including the waypoint A may be identified as the first images described above with reference to step 330, and the object of image analysis in
도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 6 may be applied to FIG. 7 as it is, so that redundant description is omitted.
도 8은 일 예에 따른, 무인 비행체에 의해 촬영된 이미지를 캘리브레이션된 결과 이미지로서 모델링하는 방법을 나타낸다. FIG. 8 shows a method of modeling an image photographed by an unmanned aerial vehicle as a calibrated resultant image, according to an example.
도시된 이미지(810)는 무인 비행체(110)에 의해 촬영된 이미지들을 그대로 모델링한 경우의 결과 이미지를 모식적으로 나타낸 것이다. 무인 비행체(110)에 의해 촬영된 이미지들은 무인 비행체(110)의 사양이나 촬영 환경 등에 따라 오차를 포함할 수 있으므로, 모델링된 이미지(810) 역시 왜곡될 수 있다.The
따라서, 무인 비행체(110)에 의해 촬영된 이미지들에 대해서는 적절한 캘리브레이션이 요구되며 이러한 캘리브레이션에 따라, 캘리브레이션된 결과 이미지(820)가 모델링될 수 있다. 결과 이미지(820)는 전술된 결과 이미지(130)에 대응할 수 있다. 결과 이미지(820)는 예컨대, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지일 수 있다. 결과 이미지(820)는 측량 대상지(120)에 대한 건축 및 정밀 측량 등을 위해 사용될 수 있다. 예컨대, 2차원 고정밀 정합 이미지를 사용하여 측량 대상지(120)의 일부 영역의 넓이가 계산되거나, 계산된 넓이에 근거하여 사용될 건축 자재의 양이 계산될 수 있다. Therefore, an appropriate calibration is required for images photographed by the unmanned
전술한 실시예들을 통해서는, 실제 측량에 근거한 GCP들의 각각이 무인 비행체(110)에 의해 촬영된 이미지들에 대해 정확하게 매칭될 수 있으므로, 촬영된 이미지들에 대한 캘리브레이션이 정교하게 수행될 수 있다. 또한, 이러한 매칭 작업은 자동으로 수행될 수 있다. Through the above-described embodiments, since each of the GCPs based on the actual measurement can be accurately matched to the images photographed by the unmanned
따라서, 도시된 것과 같이, 높은 정확도를 가지는 캘리브레이션된 결과 이미지(820)가 간편하게 얻어질 수 있다. Thus, as shown, a calibrated
도 1 내지 7을 참조하여 전술된 기술적 특징은 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 7 can be applied to FIG. 8 as it is, so that redundant description will be omitted.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
Claims (15)
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하는 단계;
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계;
상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는 단계;
상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키는 단계; 및
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지를 모델링하는 단계
를 포함하는, 결과 이미지를 모델링하는 방법.A plurality of GCPs, including position information by measurement on the survey site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints on a survey site, A method of modeling a resultant image in which each of a plurality of ground control points is matched,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
Determining a waypoint associated with each point of the plurality of waypoints corresponding to the plurality of GCPs;
Identifying first ones of the plurality of images including the determined waypoints;
Determining a center point of each point by analyzing the first images;
Matching an estimated GCP associated with each of the plurality of GCPs with a GCP corresponding to each of the plurality of GCPs; And
Modeling a two- or three-dimensional result image using the plurality of images and a result of matching each of the plurality of GCPs with each of the plurality of GCPs associated with the points,
/ RTI > of the resulting image.
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 측량 대상지를 촬영한 것이고,
상기 복수의 이미지들의 각각은 상기 측량 대상지의 일부를 촬영한 것인, 결과 이미지를 모델링하는 방법. The method according to claim 1,
Wherein the plurality of images are obtained by photographing the survey site so as to have a predetermined rate of photograph duplication,
Wherein each of the plurality of images has taken a portion of the survey target.
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것이고,
상기 각 지점의 중심점을 결정하는 단계는,
상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정하는, 결과 이미지를 모델링하는 방법.The method according to claim 1,
A GCP recognition plate is disposed at each of the points corresponding to the plurality of GCPs of the measurement target object, the plurality of images are obtained by photographing the survey target place on which the GCP recognition plate is disposed,
Wherein determining the center point of each point comprises:
Determining a center point of the GCP awareness plate disposed at each point and determining the center point of the GCP awareness plate as the estimated GCP.
상기 각 지점의 중심점을 결정하는 단계는,
상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는, 결과 이미지를 모델링하는 방법.The method of claim 3,
Wherein determining the center point of each point comprises:
Determining a center point of each point by analyzing the first images using a machine learning model, a CNN (Convolution Neural Network) model or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained; How to model.
상기 매칭시키는 단계는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 단계;
상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하는 단계; 및
상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는 단계
를 포함하는, 결과 이미지를 모델링하는 방법. The method of claim 3,
The matching step comprises:
Recognizing an outline of a figure corresponding to a GCP recognition plate disposed at each of the points;
Extracting a pixel value corresponding to a center point of the graphic object based on the recognized outline; And
Matching a position corresponding to the pixel value with a coordinate value of a GCP corresponding to each of the plurality of GCPs
/ RTI > of the resulting image.
상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 도형의 외곽선이 인식되고, 상기 도형의 중심점에 해당하는 픽셀 값이 추출되는, 결과 이미지를 모델링하는 방법.6. The method of claim 5,
An outline of the figure is recognized by using a machine learning model, a CNN (Convolution Neural Network) model or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, and a pixel value corresponding to the center point of the figure is extracted How to model the resulting image.
상기 외곽선을 인식하는 단계는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 복수 개의 외곽선들을 인식하는 단계; 및
상기 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정하는 단계
를 포함하고,
상기 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제되는, 결과 이미지를 모델링하는 방법.6. The method of claim 5,
The step of recognizing the outline may include:
Recognizing a plurality of outlines of a graphic form corresponding to a GCP recognition plate disposed at each of the points; And
Determining an average of the plurality of outlines as an outline of the figure,
Lt; / RTI >
Wherein an outline beyond a predetermined standard deviation of the plurality of outlines is excluded in the calculation of the mean.
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계는,
상기 복수의 웨이 포인트들 중 상기 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정하는, 결과 이미지를 모델링하는 방법.The method according to claim 1,
Wherein determining the waypoint associated with each of the points comprises:
Determining a closest waypoint for each of the plurality of waypoints as a waypoint associated with each of the plurality of waypoints.
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계에서, 상기 복수의 웨이 포인트들 중 하나의 웨이 포인트는 상기 지점들 중 하나의 지점과 연관되는, 결과 이미지를 모델링하는 방법.The method according to claim 1,
Wherein in determining the waypoint associated with each of the points, one waypoint of the plurality of waypoints is associated with one of the points.
상기 결과 이미지는, 상기 복수의 이미지들이 합성됨으로써 생성되는 상기 측량 대상지에 대한 단일한 이미지로서, 상기 지점들의 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지인, 결과 이미지를 모델링하는 방법. The method according to claim 1,
Wherein the resultant image is a single image for the survey site generated by combining the plurality of images, the image being a calibrated image according to a result of matching each of the estimated GCPs of the points to each of the plurality of GCPs, How to model an image.
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정하는 단계;
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계;
상기 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정하는 단계;
상기 결정된 제1 지점의 중심점을 상기 제1 지점과 연관된 추정 GCP로서, 상기 제1 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 제1 지점에 대응하는 GCP와 매칭시키는 단계;
상기 웨이 포인트를 결정하는 단계, 상기 식별하는 단계, 상기 중심점을 결정하는 단계 및 상기 매칭시키는 단계를 상기 지점들의 각각에 대해 수행하는 단계; 및
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법.A plurality of GCPs, including position information by measurement on the survey site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints on a survey site, A method of modeling a resultant image in which each of a plurality of ground control points is matched,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
Determining a waypoint associated with a first one of the plurality of waypoints corresponding to the plurality of GCPs;
Identifying first ones of the plurality of images including the determined waypoints;
Determining a center point of the first point by analyzing the first images;
Matching an estimated GCP associated with the first point to a GCP corresponding to the first one of the plurality of GCPs, the estimated GCP associated with the first point being a center point of the determined first point;
Determining the waypoint, identifying the step, determining the center point, and performing the matching on each of the points. And
Modeling the resulting image, comprising: matching each of the estimated GCPs associated with the points to each of the plurality of GCPs, and modeling the two- or three-dimensional resultant image using the plurality of images .
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 이미지들을 획득하는 이미지 획득부; 및
상기 획득된 복수의 이미지들을 분석 및 처리하는 프로세서
를 포함하고,
상기 프로세서는,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고,
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하고,
상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하고,
상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키고,
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는, 컴퓨터 시스템.A plurality of images of a plurality of GCPs (Ground Control Points) including position information by measurement on the survey site, using a plurality of images photographed by an unmanned aerial vehicle flying a path including a plurality of waypoints on a surveying object A computer system for modeling the matched result image,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
An image obtaining unit obtaining the plurality of images; And
The processor for analyzing and processing the acquired plurality of images
Lt; / RTI >
The processor comprising:
Determining a waypoint associated with each point in the plurality of waypoints corresponding to the plurality of GCPs,
Identify first ones of the plurality of images that include the determined waypoints,
Determining a center point of each point by analyzing the first images,
Determining a center point of each of the determined points as an estimated GCP associated with each of the points, matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs,
Model each of the estimated GCPs associated with the points to a respective one of the plurality of GCPs and a two-dimensional or three-dimensional resultant image using the plurality of images.
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것이고,
상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정하는, 컴퓨터 시스템.14. The method of claim 13,
A GCP recognition plate is disposed at each of the points corresponding to the plurality of GCPs of the measurement target object, the plurality of images are obtained by photographing the survey target place on which the GCP recognition plate is disposed,
Wherein the processor determines a center point of a GCP awareness plate disposed at each of the points and determines a center point of the GCP awareness plate as the estimated GCP.
상기 프로세서는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하고,
상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하고,
상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는, 컴퓨터 시스템.15. The method of claim 14,
The processor comprising:
Recognizes an outline of a figure corresponding to the GCP recognition plate disposed at each of the points,
Extracting a pixel value corresponding to a center point of the figure based on the recognized outline,
And matches a position corresponding to the pixel value with a coordinate value of a GCP corresponding to each of the plurality of GCPs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190069829A KR102003187B1 (en) | 2019-06-13 | 2019-06-13 | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190069829A KR102003187B1 (en) | 2019-06-13 | 2019-06-13 | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102003187B1 true KR102003187B1 (en) | 2019-07-23 |
Family
ID=67439809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190069829A KR102003187B1 (en) | 2019-06-13 | 2019-06-13 | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102003187B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102129502B1 (en) * | 2019-10-10 | 2020-07-02 | (주)지트 | Cadastral survey system and method using drone |
KR102129408B1 (en) * | 2020-01-30 | 2020-07-02 | 주식회사 디지털커브 | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map |
KR102195051B1 (en) * | 2020-09-25 | 2020-12-24 | 김화경 | System and method for creating spatial information using image information from drone and computer program for the same |
CN112700227A (en) * | 2021-01-11 | 2021-04-23 | 飞燕航空遥感技术有限公司 | Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application |
KR20210063569A (en) | 2019-11-25 | 2021-06-02 | 김종원 | Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor |
KR102345140B1 (en) * | 2021-09-14 | 2021-12-30 | 서광항업 주식회사 | Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof |
KR20220123901A (en) * | 2021-03-02 | 2022-09-13 | 네이버랩스 주식회사 | Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft |
KR20230114457A (en) * | 2022-01-25 | 2023-08-01 | 서울대학교산학협력단 | Method and apparatus for analyzing river confluence shaer layer using rgb images |
CN117907242A (en) * | 2024-03-15 | 2024-04-19 | 贵州省第一测绘院(贵州省北斗导航位置服务中心) | Homeland mapping method, system and storage medium based on dynamic remote sensing technology |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090834A (en) * | 2016-01-29 | 2017-08-08 | 동의대학교 산학협력단 | Measurement method Based on Global Navigation Satellite System |
KR20180056328A (en) * | 2016-11-18 | 2018-05-28 | 주식회사 무림지앤아이 | System for surveying using drone |
KR20180092591A (en) * | 2017-02-10 | 2018-08-20 | 네이버시스템(주) | Detect algorithm for structure shape change using UAV image matching technology |
KR20180121702A (en) * | 2017-04-17 | 2018-11-08 | 주식회사 포스코건설 | Earthwork area photograph system |
KR20180127567A (en) * | 2017-05-18 | 2018-11-29 | (주)인스페이스 | System for unmanned aircraft image auto geometric correction |
-
2019
- 2019-06-13 KR KR1020190069829A patent/KR102003187B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090834A (en) * | 2016-01-29 | 2017-08-08 | 동의대학교 산학협력단 | Measurement method Based on Global Navigation Satellite System |
KR20180056328A (en) * | 2016-11-18 | 2018-05-28 | 주식회사 무림지앤아이 | System for surveying using drone |
KR20180092591A (en) * | 2017-02-10 | 2018-08-20 | 네이버시스템(주) | Detect algorithm for structure shape change using UAV image matching technology |
KR20180121702A (en) * | 2017-04-17 | 2018-11-08 | 주식회사 포스코건설 | Earthwork area photograph system |
KR20180127567A (en) * | 2017-05-18 | 2018-11-29 | (주)인스페이스 | System for unmanned aircraft image auto geometric correction |
Non-Patent Citations (2)
Title |
---|
"드론사진측량" 상지대학교 지형정보연구센터(2017) * |
이지웅 외 2인, "드론측량의 개요 및 활용", 유신기술회보 25호 기술정보(2018) * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102129502B1 (en) * | 2019-10-10 | 2020-07-02 | (주)지트 | Cadastral survey system and method using drone |
KR20210063569A (en) | 2019-11-25 | 2021-06-02 | 김종원 | Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor |
KR102129408B1 (en) * | 2020-01-30 | 2020-07-02 | 주식회사 디지털커브 | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map |
KR102195051B1 (en) * | 2020-09-25 | 2020-12-24 | 김화경 | System and method for creating spatial information using image information from drone and computer program for the same |
CN112700227A (en) * | 2021-01-11 | 2021-04-23 | 飞燕航空遥感技术有限公司 | Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application |
CN112700227B (en) * | 2021-01-11 | 2022-05-24 | 飞燕航空遥感技术有限公司 | Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application |
KR20220123901A (en) * | 2021-03-02 | 2022-09-13 | 네이버랩스 주식회사 | Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft |
KR102520189B1 (en) * | 2021-03-02 | 2023-04-10 | 네이버랩스 주식회사 | Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft |
KR102345140B1 (en) * | 2021-09-14 | 2021-12-30 | 서광항업 주식회사 | Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof |
KR20230114457A (en) * | 2022-01-25 | 2023-08-01 | 서울대학교산학협력단 | Method and apparatus for analyzing river confluence shaer layer using rgb images |
KR102665566B1 (en) | 2022-01-25 | 2024-05-17 | 서울대학교산학협력단 | Method and apparatus for analyzing river confluence shaer layer using rgb images |
CN117907242A (en) * | 2024-03-15 | 2024-04-19 | 贵州省第一测绘院(贵州省北斗导航位置服务中心) | Homeland mapping method, system and storage medium based on dynamic remote sensing technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102003187B1 (en) | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle | |
KR102129408B1 (en) | Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map | |
US10636168B2 (en) | Image processing apparatus, method, and program | |
KR102154950B1 (en) | Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
JP6255085B2 (en) | Locating system and locating method | |
KR20200044420A (en) | Method and device to estimate position | |
US11610373B2 (en) | Method of generating three-dimensional model data of object | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
US10895458B2 (en) | Method, apparatus, and system for determining a movement of a mobile platform | |
US10970541B2 (en) | Geo-registering an aerial image by an object detection model using machine learning | |
KR102234461B1 (en) | Method and system for generating depth information of street view image using 2d map | |
US9858669B2 (en) | Optimized camera pose estimation system | |
KR20190141892A (en) | Method and system for automatically collecting and updating information about point of interest in real space | |
CN110703805B (en) | Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium | |
KR102269792B1 (en) | Method and apparatus for determining altitude for flying unmanned air vehicle and controlling unmanned air vehicle | |
KR102364615B1 (en) | Method and apparatus for determining route for flying unmanned air vehicle and controlling unmanned air vehicle | |
George et al. | Towards drone-sourced live video analytics for the construction industry | |
CN109978954A (en) | The method and apparatus of radar and camera combined calibrating based on cabinet | |
CN108225273A (en) | A kind of real-time runway detection method based on sensor priori | |
CN117274338A (en) | Unmanned aerial vehicle hyperspectral image alignment method, device, terminal and storage medium | |
KR102366947B1 (en) | METHOD AND APPARATUS FOR CONTROLLING UNMANNED AIR VEHICLE ON WHICH LiDAR IS MOUNTED | |
CN117132904A (en) | Real-time flight position positioning method and device, aircraft and storage medium | |
KR20220123901A (en) | Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft | |
Pogorzelski et al. | Vision Based Navigation Securing the UAV Mission Reliability |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |