KR102003187B1 - Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle - Google Patents

Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle Download PDF

Info

Publication number
KR102003187B1
KR102003187B1 KR1020190069829A KR20190069829A KR102003187B1 KR 102003187 B1 KR102003187 B1 KR 102003187B1 KR 1020190069829 A KR1020190069829 A KR 1020190069829A KR 20190069829 A KR20190069829 A KR 20190069829A KR 102003187 B1 KR102003187 B1 KR 102003187B1
Authority
KR
South Korea
Prior art keywords
gcp
images
gcps
points
point
Prior art date
Application number
KR1020190069829A
Other languages
Korean (ko)
Inventor
이홍준
Original Assignee
주식회사 디지털커브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디지털커브 filed Critical 주식회사 디지털커브
Priority to KR1020190069829A priority Critical patent/KR102003187B1/en
Application granted granted Critical
Publication of KR102003187B1 publication Critical patent/KR102003187B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides a method for modeling a result image to which each of a plurality of ground control points (GCPs) including location information by measurement in a survey site is matched by using a plurality of images photographed by an unmanned air vehicle flying a route including a plurality of way points of the survey site. The way point which is connected to each point of points corresponding to the plurality of GCPs is determined to identify and analyze first images including the determined way point so as to determine a center point of each point, thereby matching the determined center point of each point with the GCP which is an estimated GCP. Moreover, two-dimensional or three-dimensional result image is modeled by using a result of matching and the plurality of images.

Description

무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치{METHOD AND APPARATUS FOR MODELING RESULTANT IMAGE TO WHICH EACH OF GROUND CONTROL POINTS INCLUDING LOCATION INFORMATION OF SURVEY SITE IS MATCHED USING IMAGES CAPTURED BY UNMANNED AIR VEHICLE}TECHNICAL FIELD [0001] The present invention relates to a method and an apparatus for modeling a resultant image in which each of GCPs (Ground Control Points) including position information of a surveying object is matched using images photographed by an unmanned aerial vehicle CONTROL POINTS INCLUDING LOCATION INFORMATION OF SURVEY SITE IS MATCHED USING IMAGES CAPTURED BY UNMANNED AIR VEHICLE}

실시예들은 드론과 같은 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지에 대한 측량을 수행하는 방법 및 장치에 관한 것으로, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치와 관련된다.Embodiments relate to a method and apparatus for performing a survey on a survey site using images photographed by a unmanned aerial vehicle such as a drone, And a method and apparatus for modeling a resultant image, each of the ground control points being matched.

측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다.Surveying is an indispensable task in building a building or facility.

측량 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다. In surveying a survey site (for example, a commercial site), there are cases where a person can not directly measure at least part of the survey site due to environmental or geographical factors of the survey site. In this case, measurements can be made on the survey site using a unmanned aerial vehicle such as a drone. By using images (photographs) of survey sites photographed using an unmanned aerial vehicle for surveying, surveying can be possible for areas that can not be directly measured by people at the survey site.

무인 비행체를 사용하여 측량을 수행하는 경우에 있어서는, 무인 비행체에 의해 촬영된 이미지들에 대해 측량 대상지에서 실제로 측량된 지상기준점(Ground Control Point; GCP)을 매칭시키는 내업 작업이 수행되어야 한다. 촬영된 이미지들의 크기가 크고 그 수가 방대한 경우 이러한 내업 작업은 많은 시간과 자원의 소모를 요구한다. 또한, 수작업으로 이와 같은 매칭을 수행하는 경우, GCP와 촬영된 이미지 간의 매칭의 정확성이 담보되기 어렵다. In the case of performing the survey using the unmanned aerial vehicle, the inner work of matching the ground control point (GCP) actually measured on the survey site to the images taken by the unmanned aerial vehicle should be performed. If the size of the photographed images is large and the number of them is large, such internal work requires a great deal of time and resources. In addition, when performing such matching manually, it is difficult to guarantee the accuracy of the matching between the GCP and the photographed image.

따라서, 측량 대상지에 대해 실제로 측량된 GCP를 무인 비행체를 사용하여 촬영된 이미지(들)에 대해 정확하고 빠르게 매칭시킬 수 있으며, 이에 따라, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지와 같은 캘리브레이션된 결과 이미지를 편리하게 생성할 수 있는 방법 및 장치가 요구된다.Accordingly, the GCP actually measured for the survey site can be accurately and quickly matched to the image (s) photographed using the unmanned aerial vehicle, and thus, a calibration result such as a two-dimensional high-precision registration image or a three- There is a need for a method and apparatus that can conveniently generate images.

한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.Korean Registered Patent No. 10-1532582 (June 24, 2015) discloses a method for processing cadastral survey data. In order to register the land in the land study or restore the boundaries registered in the cadastral study on the land surface, In order to efficiently and systematically maintain and manage the obtained cadastral survey data when setting a reference point to measure the boundary or area of the cadastral survey data.

상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only and may include content that does not form part of the prior art and may not include what the prior art has to offer to the ordinary artisan.

일 실시예는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지를 모델링하는 방법을 제공할 수 있다. One embodiment uses each of a plurality of GCPs including location information by surveying on a survey site using a plurality of images taken by an unmanned aerial vehicle flying a path that includes a plurality of waypoints on a survey site And provide a method of modeling the matched resultant image.

일 측면에 있어서, 컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하는 단계, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계, 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는 단계, 상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키는 단계 및 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법이 제공된다. According to an aspect, there is provided an image processing method comprising the steps of: using a plurality of images taken by an unmanned aerial vehicle flying through a path including a plurality of waypoints on a survey site, performed by a computer system, A method of modeling a resultant image in which a plurality of GCPs (Ground Control Points) including a plurality of GCPs are matched, the method comprising: photographing the survey site including points corresponding to the plurality of GCPs; The method comprising: determining a waypoint associated with each point in the plurality of waypoints corresponding to the plurality of GCPs; identifying first ones of the plurality of images including the determined waypoint; Determining a center point of each point by analyzing first images, Matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs; and determining each of the estimated GCPs associated with the points as an estimated GCP associated with each of the points, There is provided a method of modeling a resultant image, the method comprising modeling a two- or three-dimensional result image using the plurality of images and a result of matching the plurality of GCPs.

상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 측량 대상지를 촬영한 것이고, 상기 복수의 이미지들의 각각은 상기 측량 대상지의 일부를 촬영한 것일 수 있다. Wherein the plurality of images are obtained by photographing the survey site so as to have a predetermined rate of overlapping of photographs, and each of the plurality of images may be obtained by photographing a part of the survey site.

상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것일 수 있다. A GCP recognition plate may be disposed at each of the points corresponding to the plurality of GCPs of the survey target site, and the plurality of images may be obtained by photographing the survey target site on which the GCP recognition plate is disposed.

상기 각 지점의 중심점을 결정하는 단계는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정할 수 있다. The step of determining the center point of each of the points may determine a center point of the GCP recognition plate disposed at each of the points and may determine the center point of the GCP recognition plate as the estimated GCP.

상기 각 지점의 중심점을 결정하는 단계는, 상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정할 수 있다. The step of determining the center point of each point may include analyzing the first images using a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, The center point of each point can be determined.

상기 매칭시키는 단계는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 단계, 상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하는 단계 및 상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는 단계를 포함할 수 있다. The matching step includes recognizing an outline of a graphic object corresponding to the GCP recognition plate disposed at each of the points, extracting a pixel value corresponding to a center point of the graphic object based on the recognized outline, Of the GCP with the coordinate value of the GCP corresponding to each of the plurality of GCPs.

상기 매칭시키는 단계는, 상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 도형의 외곽선을 인식하고, 상기 도형의 중심점에 해당하는 픽셀 값을 추출할 수 있다. The matching step may include recognizing an outline of the figure using a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, The corresponding pixel value can be extracted.

상기 외곽선을 인식하는 단계는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 복수 개의 외곽선들을 인식하는 단계 및 상기 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정하는 단계를 포함하고, 상기 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제될 수 있다. Wherein the step of recognizing the outline includes recognizing a plurality of outlines of a graphic form corresponding to the GCP recognition plate disposed at each of the points and determining an average of the plurality of outlines as an outline of the graphic, An outline beyond a predetermined standard deviation among a plurality of outlines may be excluded from the calculation of the average.

상기 각 지점과 연관된 웨이 포인트를 결정하는 단계는, 상기 복수의 웨이 포인트들 중 상기 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정할 수 있다. The step of determining a waypoint associated with each of the plurality of points may determine a closest waypoint for each of the plurality of waypoints as a waypoint associated with each of the plurality of waypoints.

상기 각 지점과 연관된 웨이 포인트를 결정하는 단계에서, 상기 복수의 웨이 포인트들 중 하나의 웨이 포인트는 상기 지점들 중 하나의 지점과 연관될 수 있다. In determining the waypoint associated with each of the points, one waypoint of the plurality of waypoints may be associated with one of the points.

상기 결과 이미지는, 상기 복수의 이미지들이 합성됨으로써 생성되는 상기 측량 대상지에 대한 단일한 이미지로서, 상기 지점들의 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지일 수 있다. The resultant image may be a single image for the survey site generated by combining the plurality of images and may be a calibrated image according to a result of matching each of the estimated GCPs of the points to each of the plurality of GCPs .

다른 일 측면에 있어서, 컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정하는 단계, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계; 상기 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정하는 단계; 상기 결정된 제1 지점의 중심점을 상기 제1 지점과 연관된 추정 GCP로서, 상기 제1 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 제1 지점에 대응하는 GCP와 매칭시키는 단계; 상기 웨이 포인트를 결정하는 단계, 상기 식별하는 단계, 상기 중심점을 결정하는 단계 및 상기 매칭시키는 단계를 상기 지점들의 각각에 대해 수행하는 단계; 및 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법이 제공된다. According to another aspect, there is provided an image processing method comprising the steps of: using a plurality of images taken by an unmanned aerial vehicle flying through a path including a plurality of waypoints on a survey site, performed by a computer system, Wherein the plurality of images are images of the survey site including points corresponding to the plurality of GCPs, the method comprising the steps of: Determining a waypoint associated with a first one of the plurality of waypoints corresponding to the plurality of GCPs, identifying first ones of the plurality of images including the determined waypoint, ; Determining a center point of the first point by analyzing the first images; Matching an estimated GCP associated with the first point to a GCP corresponding to the first one of the plurality of GCPs, the estimated GCP associated with the first point being a center point of the determined first point; Determining the waypoint, identifying the step, determining the center point, and performing the matching on each of the points. And modeling the resulting image, wherein each of the plurality of GCPs is associated with each of the plurality of GCPs, and modeling a two- or three-dimensional result image using the plurality of images. Method is provided.

또 다른 일 측면에 있어서, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 컴퓨터 시스템에 있어서, 상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고, 상기 복수의 이미지들을 획득하는 이미지 획득부 및According to another aspect, there is provided a method for measuring a position of a measurement target, comprising: a plurality of GCPs including position information by measurement on the measurement target site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints Wherein each of the plurality of images includes a point corresponding to the plurality of GCPs, and wherein the plurality of images include a plurality of GCPs, An image acquiring unit

상기 획득된 복수의 이미지들을 분석 및 처리하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고, 상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하고, 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하고, 상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키고, 상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는, 컴퓨터 시스템이 제공된다. And a processor for analyzing and processing the acquired plurality of images, wherein the processor determines a waypoint associated with each point of points corresponding to the plurality of GCPs of the plurality of waypoints, Determining a center point of each point by analyzing the first images, determining a center point of each determined point as an estimated GCP associated with each of the points, Matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs; matching each of the estimated GCPs associated with the points to each of the plurality of GCPs; Lt; RTI ID = 0.0 > 2D < / RTI >

상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것일 수 있다. A GCP recognition plate may be disposed at each of the points corresponding to the plurality of GCPs of the survey target site, and the plurality of images may be obtained by photographing the survey target site on which the GCP recognition plate is disposed.

상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정할 수 있다. The processor may determine a center point of the GCP recognition plate disposed at each of the points and determine the center point of the GCP recognition plate as the estimated GCP.

상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하고, 상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하고, 상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시킬 수 있다.The processor recognizes an outline of a graphic object corresponding to a GCP recognition plate disposed at each of the points, extracts a pixel value corresponding to a center point of the graphic object based on the recognized outline, With the coordinate values of the GCPs corresponding to the respective points among the plurality of GCPs.

실제 측량에 근거한 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고, 결정된 웨이 포인트를 포함하는 제1 이미지들을, GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 분석함으로써, 복수의 GCP들의 각각에 대응하는 지점의 중심점(추정 GCP, AIGCP)을 정확하게 결정할 수 있다. 또한, 이러한 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여, 추정 GCP(즉, AIGCP)를 실제의 GCP와 매칭시킴으로써, 매칭의 정확도를 높일 수 있다. Determining a waypoint associated with each point in a plurality of points corresponding to a plurality of GCPs based on the actual surveying and comparing the first images containing the determined waypoints to a machine learning model trained in the shape of a GCP awareness plate, Neural Network) model or a DNN (Deep Neural Network) model, it is possible to accurately determine a center point (estimated GCP, AIGCP) of a point corresponding to each of a plurality of GCPs. In addition, matching of the estimated GCP (i.e., AIGCP) with the actual GCP can be improved by using such a machine learning model, CNN model, or DNN model.

실시예에 의해서는 GCP를 무인 비행체에 의해 촬영된 이미지들에 대해 매칭시키는 내업 작업을 수작업으로 수행할 필요 없고, 이러한 GCP와 촬영된 이미지들 간의 매칭이 자동으로 정확하고 신속하게 수행될 수 있다. According to the embodiment, there is no need to manually perform an inner work task of matching the GCP with images photographed by the unmanned aerial vehicle, and the matching between the GCP and the photographed images can be automatically and accurately performed.

또한, 결과 이미지로서의 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지가 손쉽게 생성될 있으며, 무인 비행체를 사용하는 측량에 있어서 요구되는 내업 작업에 의한 자원 및 시간의 소비의 효율화를 도모할 수 있다. In addition, a two-dimensional high-precision matching image or a three-dimensional modeling image as a result image can be easily generated, and resource and time consumption can be efficiently consumed due to internal work required for a survey using an unmanned aerial vehicle.

도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 결과 이미지를 모델링하는 컴퓨터 시스템과 측량 대상지를 촬영하는 무인 비행체의 구조를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 이미지 분석에 기반하여 결정된 추정 GCP(즉, AIGCP)와 측량 대상지에서 측량된 GCP를 매칭시키는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 측량 대상지에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 무인 비행체가 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행함으로써 측량 대상지를 촬영하는 방법을 나타낸다.
도 7은 일 예에 따른, 무인 비행체에 의해 촬영된 복수의 이미지들과, GCP와 연관된 웨이 포인트 및 해당 웨이 포인트를 포함하는 이미지들을 결정하는 방법을 나타낸다.
도 8은 일 예에 따른, 무인 비행체에 의해 촬영된 이미지를 캘리브레이션된 결과 이미지로서 모델링하는 방법을 나타낸다.
FIG. 1 illustrates a method of modeling a matching result image using a GCP including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating the structure of a computer system for modeling a resultant image and an unmanned aerial vehicle for photographing a survey site, according to an embodiment.
3 is a flowchart illustrating a method of modeling a GCP matching result image including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an embodiment.
4 is a flow diagram illustrating a method for matching an estimated GCP (i.e., AIGCP) determined based on image analysis and a GCP surveyed at a survey site, according to an example.
5 is a flowchart illustrating a method of recognizing an outline of a figure corresponding to a GCP recognition plate disposed on a survey site according to an example.
FIG. 6 illustrates a method of photographing a survey site by flying a path including a plurality of waypoints on a measurement target, according to an example.
FIG. 7 illustrates a method for determining a plurality of images taken by an unmanned aerial vehicle, a waypoint associated with a GCP, and images including the waypoint, according to an example.
FIG. 8 shows a method of modeling an image photographed by an unmanned aerial vehicle as a calibrated resultant image, according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타낸다.FIG. 1 illustrates a method of modeling a matching result image using a GCP including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an exemplary embodiment of the present invention.

도 1을 참조하여, 무인 비행체(110)를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체(110)에 의해 촬영된 측량 대상지(120)의 이미지들을 사용하여 캘리브레이션된 결과 이미지(130)를 모델링하는 방법에 대해 설명한다. 1, a calibration result image 130 is modeled using the images of the survey site 120 photographed by the unmanned air vehicle 110 in the case of performing the survey using the unmanned air vehicle 110 .

측량 대상지(120)는 상업지, 건축 예정지 등을 비롯한 측량의 대상이 되는 구역(토지의 구역)을 나타낼 수 있다. The survey site 120 may represent a zone (a zone of the land) to be surveyed, including a commercial site, a construction site, and the like.

도시된 무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 측량 대상지(120) 상의 소정의 경로를 비행하면서 측량 대상지(120)를 촬영할 수 있다. 촬영된 측량 대상지(120)의 복수의 이미지들은 컴퓨터 시스템(100)으로 전달될 수 있고, 컴퓨터 시스템(100)은 전달 받은 복수의 이미지들을 분석 및 처리함으로써 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. The illustrated unmanned aerial vehicle 110 may be, for example, a drone. The unmanned aerial vehicle 110 can photograph the survey site 120 while flying a predetermined path on the survey site 120. The plurality of images of the photographed survey site 120 may be communicated to the computer system 100 and the computer system 100 may analyze and process the plurality of delivered images to model the calibrated resultant image 130 have.

측량 대상지(120) 상에는 소정의 개수의 GCP들이 포함될 수 있고, 무인 비행체(110)는 이러한 GCP를 포함하여 측량 대상지(120)를 촬영할 수 있다. A predetermined number of GCPs may be included on the survey site 120, and the unmanned air vehicle 110 may photograph the survey site 120 including the GCP.

GCP는 측량 대상지(120) 상의 기준이 되는 지점(지상기준점)으로서 실제 측량에 의해 위치 정보를 알고 있는 지점일 수 있다. 측량 대상지(120) 상에는 GCP에 대응하는 지점에 GCP 인식판이 배치될 수 있다. 측량자는 GCP 인식판이 배치된 지점을 측량함으로써 GCP의 위치 정보를 획득할 수 있다. 예컨대, 도시된 측량 대상지(120)에서는 4개의 GCP가 존재하며, 각 GCP에 해당하는 지점에 GCP 인식판이 배치될 수 있다. GCP의 위치 정보를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 전에 수행될 수 있다. 또는, GCP의 위치 정보를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 후에 수행될 수도 있다. 말하자면, 측량 대상지(120)에 GCP 인식판이 배치된 후에 무인 비행체(110)의 측량 대상지(120)에 대한 촬영이 수행되면 되고, GCP의 위치 정보(즉, GCP 인식판이 배치된 지점의 위치 정보)를 획득하기 위한 측량은 무인 비행체(110)의 측량 대상지(120)에 대한 촬영 전후에 언제라도 이루어질 수 있다. The GCP may be a reference point (ground reference point) on the measurement target site 120 and a point at which the position information is known by the actual measurement. The GCP recognition plate may be disposed on the survey site 120 at a location corresponding to the GCP. The surveyor can obtain the location information of the GCP by measuring the location where the GCP recognition plate is placed. For example, in the illustrated survey site 120, there are four GCPs, and a GCP recognition board may be disposed at a point corresponding to each GCP. The measurement for acquiring the position information of the GCP can be performed before the photographing of the measurement target site 120 of the unmanned air vehicle 110. [ Alternatively, the measurement for acquiring the location information of the GCP may be performed after the photographing of the measurement target site 120 of the unmanned air vehicle 110. [ That is, after the GCP recognition plate is placed on the measurement target site 120, the measurement object 120 of the unmanned air vehicle 110 is photographed and the GCP location information (that is, the location information of the point where the GCP recognition plate is located) The measurement can be performed at any time before and after the photographing of the survey target site 120 of the unmanned aerial vehicle 110. [

무인 비행체(110)는 이러한 GCP 인식판이 배치된 측량 대상지(120)를 촬영할 수 있고, 촬영에 따라 생성된 이미지들이 결과 이미지(130)의 모델링을 위해 사용될 수 있다.The unmanned aerial vehicle 110 can photograph the survey site 120 in which the GCP recognition plate is disposed and the images generated according to the photographing can be used for modeling the resultant image 130. [

컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 이미지들을, 예컨대, 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 분석함으로써, 이미지들에 포함된 GCP에 해당하는 지점을 추정 GCP(즉, AIGCP)로서 식별할 수 있고, 식별된 추정 GCP를 실제 측량된 GCP에 매칭시킬 수 있다. The computer system 100 analyzes images photographed by the unmanned air vehicle 110 using, for example, a machine learning model, a CNN (Convolution Neural Network) model or a DNN (Deep Neural Network) model, The point corresponding to the GCP can be identified as the estimated GCP (i.e., AIGCP), and the identified estimated GCP can be matched to the actual measured GCP.

컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 이미지들과 추정 GCP와 실제 측량된 GCP 간의 매칭 결과를 사용하여 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. The computer system 100 may model the calibrated resultant image 130 using the images obtained by the unmanned aerial vehicle 110 and the matching results between the estimated GCP and the actually measured GCP.

결과 이미지(130)는 예컨대, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지일 수 있다. 모델링된 결과 이미지(130)는 측량 대상지(120)에 대한 건축 및 정밀 측량 등을 위해 사용될 수 있다. 예컨대, 2차원 고정밀 정합 이미지를 사용하여 측량 대상지(120)의 일부 영역의 넓이가 계산되거나, 계산된 넓이에 근거하여 사용될 건축 자재의 양이 계산될 수 있다. The resulting image 130 may be, for example, a two-dimensional high-precision registration image or a three-dimensional modeling image. The modeled resultant image 130 may be used for construction and precision measurement of the survey site 120, and the like. For example, the area of a partial area of the measurement target site 120 may be calculated using a two-dimensional high-precision matching image, or the amount of building material to be used may be calculated based on the calculated area.

실시예를 통해서는 무인 비행체(110)에 의해 촬영된 이미지들에 대해 실제 측량된 GCP의 위치 정보(예컨대, 위치 좌표)가 정확하게 매칭(맵핑)될 수 있다. 따라서, 이러한 매칭 작업과 관련된 내업 작업을 수작업으로 수행하는 것에 비해 시간 및 자원의 소모를 최소화할 수 있고, 매칭의 정확성 역시 비약적으로 높일 수 있다.The positional information (for example, the positional coordinates) of the actually measured GCP can be precisely matched (mapped) to the images photographed by the unmanned aerial vehicle 110 through the embodiment. Thus, compared to manually performing internal work related to this matching operation, time and resource consumption can be minimized, and the accuracy of matching can also be dramatically increased.

컴퓨터 시스템(100) 및 무인 비행체(110)의 보다 상세한 구조 및 기능과, 무인 비행체(110)에 의해 촬영된 이미지들을 사용하여 측량 대상지(120)의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지(130)를 모델링하는 방법에 대해서는 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명된다.  The detailed structure and function of the computer system 100 and the unmanned air vehicle 110 and the GCP including the location information of the survey site 120 using the images taken by the unmanned air vehicle 110 130 will be described in more detail with reference to Figs. 2 to 8 to be described later.

도 2는 일 실시예에 따른, 결과 이미지를 모델링하는 컴퓨터 시스템과 측량 대상지를 촬영하는 무인 비행체의 구조를 나타내는 블록도이다. 2 is a block diagram illustrating the structure of a computer system for modeling a resultant image and an unmanned aerial vehicle for photographing a survey site, according to an embodiment.

도 2를 참조하여, 무인 비행체(110) 및 컴퓨터 시스템(100)의 구체적인 구성들이 설명된다. Referring to Fig. 2, specific configurations of the unmanned aerial vehicle 110 and the computer system 100 are described.

도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 측량 대상지(120)를 비행하여 측량 대상지(120)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 일례로, 무인 비행체(110)는 플러그인 DGPS 드론 또는 플러그인 RTK 드론일 수 있다. As described above with reference to FIG. 1, the unmanned aerial vehicle 110 is an apparatus for photographing the survey site 120 by flying the survey site 120, for example, a drone, an unmanned aerial vehicle or other automatic or radio- . For example, the unmanned aerial vehicle 110 may be a plug-in DGPS drones or a plug-in RTK drones.

무인 비행체(110)는 측량 대상지(120) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말)을 통해 소정의 경로를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 측량 대상지(120)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다. 무인 비행체(110)의 측량 대상지(120)에 대한 복수의 웨이 포인트들을 포함하는 예시적인 비행 경로는 후술될 도 6을 참조하여 더 자세하게 설명된다.The unmanned aerial vehicle 110 may fly a predetermined path including a plurality of waypoints on the survey site 120. The predetermined path may be set by the user of the unmanned air vehicle 110. [ For example, a user of the unmanned air vehicle 110 can set a predetermined path through a user terminal associated with the unmanned air vehicle 110 (for example, a terminal equipped with an application related to control of a smart phone or a controller or the unmanned air vehicle 110) have. A user of the unmanned aerial vehicle 110 can designate a plurality of waypoints on a map representing the survey site 120 through a user terminal associated with the unmanned air vehicle 110, It can be set as a path. An exemplary flight path including a plurality of waypoints to the survey site 120 of the unmanned aerial vehicle 110 will be described in more detail with reference to FIG.

무인 비행체(110)는 경로 상의 각 웨이 포인트에서 측량 대상지(120)를 촬영할 수 있다. 이 때, 촬영된 이미지의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The unmanned aerial vehicle 110 can photograph the survey site 120 at each way point on the route. At this time, the center of the photographed image may be a waypoint. Alternatively, the location where the unmanned object 110 photographs the measurement target site 120 may be a position separate from the waypoint.

웨이 포인트는 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다. 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 촬영된 이미지의 중심점이 될 수 있다. 촬영된 이미지의 중심점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a position specified on the map, and its positional information (e.g., coordinate value) may be a known value. The position where the unmanned object 110 photographs the measurement target site 120 may be the center point of the photographed image. The center point of the photographed image may be on a path that the unmanned air vehicle 110 travels, and the positional information (e.g., coordinate value) may be a known value.

무인 비행체(110)는 통신부(240), 카메라(250), 프로세서(260) 및 저장부(270)를 포함할 수 있다. The unmanned air vehicle 110 may include a communication unit 240, a camera 250, a processor 260, and a storage unit 270.

통신부(240)는 무인 비행체(110)가 컴퓨터 시스템(100) 및 사용자 단말 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(240)는 무인 비행체(110)가 컴퓨터 시스템(100) 및 사용자 단말 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit 240 may be a configuration for allowing the unmanned air vehicle 110 to communicate with the computer system 100 and other devices such as a user terminal. In other words, the communication unit 240 is a configuration for the unmanned air vehicle 110 to transmit / receive data and / or information wirelessly or wiredly to the computer system 100 and other devices such as a user terminal, A network interface card, a network interface chip, and a networking interface port, or a software module such as a network device driver or a networking program.

무인 비행체(110)는 통신부(240)를 통해 컴퓨터 시스템(100) 또는 사용자 단말과 통신하거나, 컴퓨터 시스템(100)으로 촬영된 이미지들을 전송할 수 있다. The unmanned aerial vehicle 110 may communicate with the computer system 100 or the user terminal via the communication unit 240 or may transmit the captured images to the computer system 100. [

프로세서(260)는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서(260)는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서(260)는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.The processor 260 may manage the components of the unmanned aerial vehicle 110 and may be configured to control a flight of the unmanned air vehicle 110 to a predetermined path. For example, the processor 260 may perform processing and calculation of data necessary to control the flight of the unmanned aerial vehicle 110. [ The processor 260 may be at least one processor of the unmanned aerial vehicle 110 or at least one core in the processor.

카메라(250)는 비행 중에 측량 대상지(120)를 촬영하기 위한 장치일 수 있다. 카메라(250)는 측량 대상지(120)를 촬영함으로써 이미지(이미지 파일)을 생성할 수 있다. The camera 250 may be a device for photographing the survey site 120 during flight. The camera 250 can generate an image (image file) by photographing the survey target site 120. [

저장부(270)는 카메라(250)에 의한 촬영에 의해 생성된 이미지를 저장하기 위한 스토리지를 포함할 수 있다. 저장부(270)는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부(270)는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다. The storage unit 270 may include storage for storing images generated by the camera 250. The storage unit 270 may be any internal memory of the unmanned aerial vehicle 110 or an external memory device such as a flash memory, an SD card, or the like mounted on the unmanned air vehicle 110. In addition, the storage unit 270 may store information related to a predetermined path for flight of the unmanned aerial vehicle 110 (for example, information on maps and waypoints).

컴퓨터 시스템(100)은 무인 비행체(110)로부터 측량 대상지(120)를 촬영한 이미지들을 획득하고, 획득된 이미지들을 분석함으로써 측량 대상지(120)에 대한 캘리브레이션된 결과 이미지(130)를 모델링(즉, 생성)하기 위한 장치일 수 있다. The computer system 100 models the calibration result image 130 for the survey site 120 by acquiring images of the survey site 120 from the unmanned air vehicle 110 and analyzing the acquired images, (E.g.

컴퓨터 시스템(100)은 무인 비행체(110)로부터 획득된 이미지들을 분석 및 처리하기 위한 서버 또는 기타 컴퓨팅 장치일 수 있다. 컴퓨터 시스템(100)은 무인 비행체(110)에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지(120) 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지(130)를 모델링할 수 있다. The computer system 100 may be a server or other computing device for analyzing and processing images obtained from the unmanned aerial vehicle 110. The computer system 100 uses the plurality of images taken by the unmanned aerial vehicle 110 so that each of the plurality of GCPs including the positional information by the survey on the survey site 120 is matched with the resultant image 130, Can be modeled.

컴퓨터 시스템(100)은 예컨대, 스마트 폰, PC(personal computer), 서버용 컴퓨터, 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 컴퓨터 시스템(100)은 무인 비행체(110)과 통신하며 무인 비행체(110)를 제어하는 단말일 수 있다. 또는, 컴퓨터 시스템(100)은 도시된 것과는 달리 무인 비행체(110)에 내장되어 구성될 수도 있다. The computer system 100 may be, for example, a smart phone, a personal computer, a server computer, a laptop computer, a laptop computer, a tablet, an Internet Of Things device, And may be a terminal used by a user such as a wearable computer. The computer system 100 may be a terminal that communicates with the unmanned air vehicle 110 and controls the unmanned air vehicle 110. Alternatively, the computer system 100 may be embedded in the unmanned aerial vehicle 110, unlike the one shown in FIG.

컴퓨터 시스템(100)은 이미지 획득부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다. The computer system 100 may include an image acquisition unit 210, a processor 220, and a display unit 230.

이미지 획득부(210)는 무인 비행체(110)에 의해 촬영된 이미지들을 획득하기 위한 구성일 수 있다. 예컨대, 이미지 획득부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지들을 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지들을 획득할 수 있다. The image acquisition unit 210 may be a configuration for acquiring images photographed by the unmanned aerial vehicle 110. For example, the image acquisition unit 210 may acquire images via the wired or wireless network from the unmanned air vehicle 110, or may acquire images via the external memory device of the unmanned air vehicle 110.

또한, 이미지 획득부(210)는 컴퓨터 시스템(100)의 통신부에 대응할 수 있다. 즉, 이미지 획득부(210)는 컴퓨터 시스템(100)이 무인 비행체(110) 및 서버 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 이미지 획득부(210)는 컴퓨터 시스템(100)이 무인 비행체(110) 및 서버 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 컴퓨터 시스템(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The image acquisition unit 210 may correspond to the communication unit of the computer system 100. [ That is, the image acquisition unit 210 may be a configuration in which the computer system 100 communicates with the unmanned air vehicle 110 and other devices such as a server. In other words, the image acquiring unit 210 may be a computer system (not shown) configured to transmit / receive data and / or information wirelessly or wired to the unmanned air vehicle 110 and other devices such as a server, A network interface card, a network interface chip, and a networking interface port, or a software module such as a network device driver or networking program.

프로세서(220)는 컴퓨터 시스템(100)의 구성 요소들을 관리할 수 있고, 컴퓨터 시스템(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들을 분석 및 처리하고, 결과 이미지(130)를 모델링하기 위해 필요한 데이터와 연산을 수행할 수 있다. 프로세서(220)는 컴퓨터 시스템(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 프로세서(220)의 자세한 기능과 동작에 대해서는 후술될 도 3 내지 도 8을 참조하여 더 자세하게 설명한다. The processor 220 may be a component for managing components of the computer system 100 and for executing programs or applications used by the computer system 100. [ For example, the processor 220 may analyze and process images photographed by the unmanned aerial vehicle 110, and may perform data and calculations necessary to model the resulting image 130. [ The processor 220 may be at least one processor of the computer system 100 or at least one core within the processor. The detailed functions and operations of the processor 220 will be described in more detail with reference to FIGS. 3 to 8 to be described later.

표시부(230)는 컴퓨터 시스템(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들 또는 모델링된 결과 이미지(130)를 출력하기 위한 디스플레이 장치일 수 있다. The display unit 230 may be a display device for outputting data input by a user of the computer system 100 or for outputting images photographed by the unmanned air vehicle 110 or a modeled resultant image 130. [

실시예에서, 컴퓨터 시스템(100)의 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들을 분석 및 처리함으로써 추정 GCP를 결정할 수 있고, 결정된 추정 GCP와 실제 측량에 근거한 GCP를 매칭시킬 수 있다. 프로세서(220)는 이러한 매칭의 결과와 무인 비행체(110)에 의해 촬영된 이미지들을 사용하여 캘리브레이션된 결과 이미지(130)를 모델링할 수 있다. In an embodiment, the processor 220 of the computer system 100 may determine the estimated GCP by analyzing and processing images photographed by the unmanned aerial vehicle 110, and may compare the determined GCP with the GCP based on the actual measurement have. The processor 220 may model the calibrated resultant image 130 using the results of this matching and the images taken by the unmanned aerial vehicle 110.

관련하여, 프로세서(220)의 추정 GCP를 결정하는 방법과, 결정된 추정 GCP와 실제 측량에 근거한 GCP 매칭하는 자세한 방법에 대해서는 후술될 도 3 내지 도 8을 참조하여 더 자세하게 설명한다.In this regard, a method of determining the estimated GCP of the processor 220 and a detailed method of GCP matching based on the determined estimated GCP and the actual measurement will be described in more detail with reference to FIGS. 3 to 8 to be described later.

도 1을 참조하여 전술된 기술적 특징은 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIG. 1 can be applied to FIG. 2 as it is, so that redundant description is omitted.

도 3은 일 실시예에 따른, 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP가 매칭된 결과 이미지를 모델링하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of modeling a GCP matching result image including positional information of a measurement target using images taken by an unmanned aerial vehicle according to an embodiment.

도 3을 참조하여, 컴퓨터 시스템(100)에 의해 수행되는, 측량 대상지(120) 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체(110)에 의해 촬영된 복수의 이미지들을 사용하여, 측량 대상지(120) 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP들의 각각이 매칭된 결과 이미지(130)를 모델링하는 방법에 대해 설명한다. 3, using the plurality of images taken by the unmanned air vehicle 110 flying by the path including the plurality of waypoints on the survey site 120, performed by the computer system 100, A method for modeling a matching result image 130 of each of a plurality of GCPs including positional information by measurement on the destination site 120 will be described.

단계(310)에서, 프로세서(220)는 이미지 획득부(210)를 통해 무인 비행체(110)에 의해 촬영된 측량 대상지(120)의 복수의 이미지들을 획득할 수 있다. 예컨대, 이미지들은 무인 비행체(110)로부터 유선 또는 무선을 통해 획득되거나, 무인 비행체(110)의 외부 메모리 장치를 통해 획득될 수 있다. The processor 220 may acquire a plurality of images of the survey site 120 photographed by the unmanned aerial vehicle 110 through the image acquisition unit 210. In step 310, For example, the images may be acquired from the unmanned aerial vehicle 110 via wired or wireless communication, or may be acquired via the external memory device of the unmanned aerial vehicle 110. [

복수의 이미지들은 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들을 포함하는 측량 대상지(120)를 촬영한 것일 수 있다. 예컨대, 측량 대상지(120)의 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치될 수 있고, 복수의 이미지들은 GCP 인식판이 배치된 측량 대상지(120)를 촬영한 것일 수 있다. The plurality of images may be taken of the survey site 120 including points corresponding to a plurality of GCPs based on the actual survey for the survey site 120. [ For example, the GCP recognition plate may be disposed at each of the points corresponding to the plurality of GCPs of the measurement target site 120, and the plurality of images may be obtained by photographing the measurement target site 120 in which the GCP recognition plate is disposed.

촬영된 복수의 이미지들의 각각은 측량 대상지(120)의 일부를 촬영한 것일 수 있다. 복수의 이미지들은 소정의 사진 중복률을 갖도록 측량 대상지(120)를 촬영한 것일 수 있고, 따라서, 복수의 이미지들은 측량 대상지(120)를 전체 영역을 빠짐 없이 포함하게 될 수 있다. 소정의 사진 중복률은 예컨대, 60% 내지 80%일 수 있다. Each of the plurality of photographed images may have photographed a part of the survey site 120. The plurality of images may be photographed so that the measurement target site 120 has a predetermined rate of photographic duplication, and thus the plurality of images may include the entire area of the measurement target site 120 without fail. The predetermined photographic overlap ratio may be, for example, 60% to 80%.

무인 비행체(110)는 경로 상의 각 웨이 포인트에서 측량 대상지(120)를 촬영할 수 있고, 이 때, 촬영된 이미지의 중심은 해당 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 측량 대상지(120)를 촬영하는 위치는 웨이 포인트와는 별개의 위치가 될 수도 있다. The unmanned air vehicle 110 can photograph the measurement target site 120 at each way point on the route and the center of the captured image can be the corresponding waypoint. Alternatively, the location where the unmanned object 110 photographs the measurement target site 120 may be a position separate from the waypoint.

웨이 포인트는 무인 비행체(110)의 경로 설정을 위한 맵 상에서 지정되는 위치로서 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다.The waypoint is a position designated on a map for setting the path of the unmanned air vehicle 110, and its location information (e.g., coordinate value) may be a known value.

단계(320)에서, 프로세서(220)는 무인 비행체(110)의 (비행) 경로가 포함하는 복수의 웨이 포인트들 중 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정할 수 있다. In step 320, the processor 220 determines whether or not the points corresponding to the plurality of GCPs based on the actual measurement of the survey site 120 among the plurality of waypoints included in the (flight) path of the unmanned air vehicle 110 The waypoint associated with each point can be determined.

일례로, 프로세서(220)는 무인 비행체(110)의 경로가 포함하는 복수의 웨이 포인트들 중 GCP들에 대응하는 지점들의 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정할 수 있다. In one example, the processor 220 may determine the closest waypoint for each point of the points corresponding to the GCPs among the plurality of waypoints that the path of the unmanned air vehicle 110 includes as waypoints associated with each point have.

단계(320)의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정하는 단계에 있어서, 무인 비행체(110)의 경로가 포함하는 복수의 웨이 포인트들 중 하나의 웨이 포인트는 GCP들에 대응하는 지점들 중 하나의 지점과만 연관되는 것으로 결정될 수 있다. GCP들에 대응하는 지점들 중 하나의 지점에 대해 둘 이상이 웨이 포인트들이 연관되는 것으로 결정된 경우, 프로세서(220)는 하나의 웨이 포인트를 제외한 나머지는 무시할 수 있다. Determining a waypoint associated with each point of the points corresponding to the GCPs of step 320, wherein one of the plurality of waypoints included in the path of the unmanned air vehicle 110 corresponds to the GCPs It can be determined to be associated only with a point of one of the plurality of points. If more than one waypoints are determined to be associated with one of the points corresponding to the GCPs, the processor 220 can ignore the remainder except for one waypoint.

다만, GCP들에 대응하는 지점들 중 하나의 지점은 복수의 웨이 포인트들과 연관될 수도 있다. 말하자면, GCP들에 대응하는 지점과 웨이 포인트 간에는 1 대 다의 연관 관계가 있을 수 있으나, 그 역은 성립하지 않을 수 있다. However, one of the points corresponding to the GCPs may be associated with a plurality of waypoints. In other words, there may be a one-to-many association between a point corresponding to a GCP and a waypoint, but the inverse may not hold.

또는, 단계(320)의 GCP들에 대응하는 지점들의 각 지점과 연관된 웨이 포인트를 결정하는 단계에 있어서, 하나의 웨이 포인트/하나의 지점은 해당 하나의 웨이 포인트/하나의 지점과 가장 가까운 하나의 지점/하나의 웨이 포인트와만 연관되는 것으로 결정될 수도 있다. Or determining a waypoint associated with each point of the points corresponding to the GCPs of step 320, wherein one waypoint / one point corresponds to one waypoint / one point closest to that one waypoint / It may be determined to be associated only with a point / one waypoint.

단계(330)에서, 프로세서(220)는 촬영된 복수의 이미지들 중에서 단계(320)에서 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별할 수 있다. 말하자면, 프로세서(220)는 촬영된 복수의 이미지들 중에서 GCP들에 대응하는 지점들의 각 지점과 연관되는 것으로 결정된 웨이 포인트를 포함하는 이미지들을 제1 이미지들로서 식별할 수 있다.At step 330, the processor 220 may identify the first images containing the waypoints determined at step 320, among the plurality of images photographed. That is to say, the processor 220 can identify, as the first images, images containing a determined waypoint that is associated with each point of the points corresponding to the GCPs from the plurality of captured images.

단계(340)에서, 프로세서(220)는 식별된 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. 즉, 단계(330)에서 식별된 제1 이미지들은 단계(340)에서 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정하기 위한 분석의 대상이 되는 이미지들일 수 있다. At step 340, the processor 220 may determine the center point of each point of the points corresponding to the GCPs by analyzing the identified first images. That is, the first images identified in step 330 may be images to be analyzed to determine the center point of each point of the points corresponding to the GCPs in step 340.

일반적으로, 무인 비행체(110)에 의해 촬영된 이미지는 그 수가 매우 많으며 각 이미지의 용량 또한 매우 크므로, 무인 비행체(110)에 의해 촬영된 모든 이미지를 단계(340)에서 분석하는 것은 비효율적일 수 있다. In general, since the number of images taken by the unmanned aerial vehicle 110 is very large and the capacity of each image is also very large, it is inefficient to analyze all of the images taken by the unmanned aerial vehicle 110 in step 340 have.

이러한 문제를 해결하기 위해, 실시예에서는 단계(330)에 의해 단계(320)에서 결정된 웨이 포인트를 포함하는 제1 이미지들을 먼저 식별하고, 식별된 제1 이미지들을 대상으로 이미지 분석을 수행하여 해당 결정된 웨이 포인트와 연관된 지점의 중심점을 결정할 수 있다. 따라서, 실시예를 통해서는 보다 빠른 이미지의 분석 처리 및 각 지점의 중심점 결정의 처리가 이루어질 수 있다. In order to solve this problem, in the embodiment, the first images including the waypoint determined in step 320 are first identified by the step 330, the image analysis is performed on the identified first images, The center point of the point associated with the waypoint can be determined. Therefore, through the embodiments, a faster image analysis process and a center point determination process of each point can be performed.

GCP들에 대응하는 지점들의 각 지점의 중심점을 결정하는 것은, 해당 각 지점에 배치된 GCP 인식판의 중심점을 결정하는 것일 수 있다. Determining the center point of each point of the points corresponding to the GCPs may be to determine the center point of the GCP recognition plate disposed at each of the points.

GCP 인식판의 중심점을 결정함에 있어서는, GCP 인식판의 형상(학습 도형)을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델이 사용될 수 있다. GCP 인식판의 형상은 예컨대, 원형 또는 사각형일 수 있고, GCP 인식판은 원형 또는 사각형 내에 X 또는 H와 같은 기호가 표시된 것일 수 있다. In determining the center point of the GCP recognition plate, a machine learning model, a CNN (Convolution Neural Network) model, or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained can be used. The shape of the GCP recognition plate may be, for example, a circle or a quadrangle, and the GCP recognition plate may be indicated by a symbol such as X or H in a circle or a rectangle.

프로세서(220)는 이러한 훈련된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. The processor 220 may determine the center point of each point of the points corresponding to the GCPs by analyzing the first images using the trained machine learning model, the CNN model, or the DNN model.

프로세서(220)는 단계(340)에서 결정된 각 지점의 중심점을 추정 GCP로서 결정할 수 있다. 추정 GCP는 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석한 결과에 따라 결정되는 것이라는 점에서 AIGCP라고도 명명될 수 있다. The processor 220 may determine the center point of each point determined in step 340 as the estimated GCP. The estimated GCP may also be referred to as AIGCP in that it is determined according to the results of analyzing the first images using a machine learning model, a CNN model, or a DNN model.

머신러닝 모델, CNN 모델 또는 DNN 모델을 사용한 훈련은 컴퓨터 시스템(100)에 의해 수행될 수도 있고, 컴퓨터 시스템(100) 외부의 별도의 서버에 의해 수행될 수도 있다. 예컨대, 프로세서(220)는 외부의 별도의 서버에서 구축된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점의 중심점을 결정할 수 있다. Training using the machine learning model, the CNN model, or the DNN model may be performed by the computer system 100 or may be performed by a separate server external to the computer system 100. For example, the processor 220 may determine the center point of each point of the points corresponding to the GCPs by analyzing the first images using a machine learning model, CNN model, or DNN model built on a separate external server.

프로세서(220)는 상기 제1 이미지들을 분석함으로써 GCP들에 대응하는 지점들의 각 지점에 배치된 GCP 인식판의 중심점을 (해당 각 지점과 연관된) 추정 GCP로서 결정할 수 있다. The processor 220 may determine the center point of the GCP awareness plate located at each point of the points corresponding to the GCPs as the estimated GCP (associated with each respective point) by analyzing the first images.

단계(350)에서, 프로세서(220)는 단계(340)에서 결정된 각 지점의 중심점을 해당 각 지점과 연관된 추정 GCP로서, 상기 추정 GCP를 (실제 측량에 근거한) 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시킬 수 있다. 프로세서(220)는 추정 GCP를 실제 측량에 근거한 GCP와 매칭시키는 작업을 수행함에 있어서, 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용할 수 있다. At step 350, the processor 220 determines the center point of each point determined at step 340 as the estimated GCP associated with each respective point, the estimated GCP at each of the plurality of GCPs (based on the actual measurement) It can be matched with the corresponding GCP. The processor 220 may use a machine learning model, a CNN model, or a DNN model to perform an operation of matching an estimated GCP with a GCP based on an actual survey.

프로세서(220)는 각 지점에 대응하는 실제 측량에 근거한 GCP의 위치 정보(예컨대, 좌표 값)를 해당 각 지점과 연관된 추정 GCP의 위치 정보로 맵핑시킴으로써, 추정 GCP를 실제 측량에 근거한 GCP에 매칭시킬 수 있다. Processor 220 maps the location information (e.g., coordinate values) of the GCP based on the actual measurement corresponding to each point to the location information of the estimated GCP associated with each point to thereby match the estimated GCP to the GCP based on the actual survey .

추정 GCP를 실제 측량에 근거한 GCP에 매칭시키는 보다 구체적인 방법에 대해서는 후술될 도 4 및 도 5를 참조하여 더 자세하게 설명된다.A more specific method of matching the estimated GCP to the GCP based on the actual measurement will be described in more detail with reference to FIGS. 4 and 5, which will be described later.

단계(350)에 따라, 촬영된 이미지들로부터 결정된 모든 추정 GCP들의 각각이 실제 측량에 근거한 GCP들의 각각에 매칭될 수 있다. According to step 350, each of all the estimated GCPs determined from the photographed images may be matched to each of the GCPs based on the actual measurement.

단계(360)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들에 대응하는 지점들과 연관된 추정 GCP들의 각각(즉, 단계(350)을 통해 추정된 추정된 GCP들 각각)을 상기 복수의 GCP들의 각각에 매칭시킨 결과와, 촬영된 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지(130)를 모델링할 수 있다. At step 360, the processor 220 determines each of the estimated GCPs associated with the points corresponding to the plurality of GCPs (i.e., the estimated GCPs estimated through step 350) A two-dimensional or three-dimensional result image 130 may be modeled using a result of matching each of the plurality of GCPs and a plurality of photographed images.

결과 이미지(130)는 복수의 이미지들이 합성됨으로써 생성되는 측량 대상지(120)에 대한 단일한 이미지로서, 결정된 추정 GCP들의 각각을 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지일 수 있다. 결과 이미지(130)에 대해서는 후술될 도 8을 참조하여 더 자세하게 설명된다. The resulting image 130 may be a single image for the survey site 120 generated by compositing the plurality of images and may be a calibrated image according to the result of matching each of the determined estimated GCPs to each of the plurality of GCPs. The resulting image 130 will be described in more detail with reference to FIG.

단계(350)에 따른 매칭 작업의 수행에 따라, 촬영된 이미지들이 포함하는 오차가 교정(calibration)될 수 있다. 따라서, 단계(360)에 의해 모델링되어 생성된 결과 이미지(130)는 정확한 측량 데이터(위치 정보)를 포함할 수 있다. With the performance of the matching operation according to step 350, the error contained in the photographed images can be calibrated. Thus, the resulting image 130 modeled and generated by step 360 may contain accurate metrology data (location information).

도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as it is, so that redundant description is omitted.

도 4는 일 예에 따른, 이미지 분석에 기반하여 결정된 추정 GCP(즉, AIGCP)와 측량 대상지에서 측량된 GCP를 매칭시키는 방법을 나타내는 흐름도이다. 4 is a flow diagram illustrating a method for matching an estimated GCP (i.e., AIGCP) determined based on image analysis and a GCP surveyed at a survey site, according to an example.

도 4를 참조하여, 전술된 단계(350)에 대해 더 자세하게 설명한다.Referring to Fig. 4, the above-described step 350 will be described in more detail.

단계(410)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들의 각각에 대응하는 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식할 수 있다. At step 410, the processor 220 may recognize an outline of a graphic corresponding to a GCP recognition plate disposed at each point corresponding to each of a plurality of GCPs (based on an actual measurement).

단계(420)에서, 프로세서(220)는 인식된 외곽선에 기반하여 도형의 중심점에 해당하는 픽셀(예컨대, 픽셀 값)을 추출할 수 있다. At step 420, the processor 220 may extract pixels (e.g., pixel values) corresponding to the center point of the graphic based on the recognized outline.

단계(430)에서, 프로세서(220)는 추출된 픽셀(픽셀 값)에 대응하는 위치를, 실제 측량에 근거한 복수의 GCP들 중에서 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시킬 수 있다. 말하자면, 프로세서(220)는 추출된 GCP 인식판의 중심점에 해당하는 픽셀의 위치에 해당 GCP 인식판의 위치 정보를 실제로 측량함으로써 획득된 좌표 값을 맵핑할 수 있다.In step 430, the processor 220 may match the position corresponding to the extracted pixel (pixel value) with the coordinate value of the GCP corresponding to each of the plurality of GCPs based on the actual measurement. In other words, the processor 220 can map the coordinate values obtained by actually measuring the position information of the GCP recognition plate at the position of the pixel corresponding to the center point of the extracted GCP recognition plate.

전술한 단계들(410 내지 430)에 의해, 결정된 추정 GCP 및 실제 측량에 근거한 GCP 간의 매칭이 완료될 수 있다. By the above-described steps 410 to 430, the matching between the determined estimated GCP and the GCP based on the actual measurement can be completed.

한편, 단계(350)의 매칭에 있어서는, GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN 모델 또는 DNN 모델이 사용될 수 있다. 프로세서(220)는 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 GCP 인식판에 대응하는 도형의 외곽선을 인식할 수 있고, 해당 도형의 중심점에 해당하는 픽셀 값을 추출할 수 있다. On the other hand, in the matching of the step 350, a machine learning model, CNN model or DNN model in which the shape of the GCP recognition plate is trained can be used. The processor 220 can recognize the outline of a graphic object corresponding to the GCP recognition plate using a machine learning model, a CNN model, or a DNN model, and extract a pixel value corresponding to the center point of the graphic object.

전술한 것처럼, 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용한 훈련은 컴퓨터 시스템(100)에 의해 수행될 수도 있고, 컴퓨터 시스템(100) 외부의 별도의 서버에 의해 수행될 수도 있다. 예컨대, 프로세서(220)는 외부의 별도의 서버에서 구축된 머신러닝 모델, CNN 모델 또는 DNN 모델을 사용하여 GCP 인식판에 대응하는 도형의 외곽선을 인식하고 그 중심점에 해당하는 픽셀 값을 추출할 수 있다. As described above, training using a machine learning model, a CNN model, or a DNN model may be performed by the computer system 100 or may be performed by a separate server external to the computer system 100. [ For example, the processor 220 recognizes an outline of a graphic object corresponding to a GCP recognition plate using a machine learning model, a CNN model, or a DNN model built in an external server, and extracts a pixel value corresponding to the center point have.

도 1 및 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as it is, so that redundant description is omitted.

도 5는 일 예에 따른, 측량 대상지에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of recognizing an outline of a figure corresponding to a GCP recognition plate disposed on a survey site according to an example.

도 5를 참조하여, 전술된 단계(410)에 대해 더 자세하게 설명한다.With reference to Fig. 5, step 410 described above will be described in more detail.

단계(510)에서, 프로세서(220)는 (실제 측량에 근거한) 복수의 GCP들의 각각에 대응하는 각 지점에 배치된 GCP 인식판에 대응하는 도형에 대해 복수 개의 외곽선들을 인식할 수 있다. At step 510, the processor 220 may recognize a plurality of outlines for a graphic corresponding to a GCP awareness plate disposed at each point corresponding to each of the plurality of GCPs (based on the actual measurement).

단계(520)에서, 프로세서(220)는 인식된 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정할 수 있다. 단계(520)에서 도형의 외곽선을 결정함에 있어서는 보간법(interporation)이 사용될 수 있다.In step 520, the processor 220 may determine an average of the recognized plurality of outlines as an outline of the figure. In step 520, an interpolation may be used to determine the outline of the figure.

예컨대, 프로세서(220)는 단계(510)에서 인식된 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제할 수 있고, 나머지의 외곽선들을 사용하여 평균을 계산함으로써 상기 도형에 대한 외곽선을 결정할 수 있다. For example, the processor 220 may determine that the outline exceeding a predetermined standard deviation of the plurality of outlines recognized in step 510 is excluded from the calculation of the average, and calculates the average using the remaining outlines, The outline can be determined.

도 3 내지 5를 참조하여 설명된 실시예에 의해, 각 GCP에 대응하는 GCP 인식판의 중심점이 보다 정확하게 결정될 수 있고, 따라서, 해당 중심점에 대한 GCP의 매칭의 높은 정확도가 달성될 수 있다. 3 to 5, the center point of the GCP awareness plate corresponding to each GCP can be determined more accurately, and therefore, a high accuracy of matching of the GCP to the center point can be achieved.

또한, 실시예에 의해서는, 실제 측량에 근거한 GCP를 촬영된 이미지(들)에 대해 수작업으로 매칭시키는 작업이 요구되지 않고, 이러한 매칭이 자동으로 수행될 수 있는 바, 결과 이미지(130) 모델링에 있어서의 효율성이 극대화될 수 있다. Also, according to the embodiment, there is no need to manually match the GCP based on the actual measurement to the photographed image (s), and such matching can be performed automatically, resulting in modeling of the resulting image 130 Thereby maximizing the efficiency of the system.

도 3을 참조하여 전술된 단계들은, 다음과 같은 순서에 따라 수행될 수도 있다.The steps described above with reference to Fig. 3 may be performed in the following order.

예컨대, 프로세서(220)는 무인 비행체(110)의 (비행) 경로가 포함하는 복수의 웨이 포인트들 중 측량 대상지(120)에 대한 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정할 수 있다(제1 단계). 프로세서(220)는 촬영된 복수의 이미지들 중 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별할 수 있다(제2 단계). 프로세서(220)는 식별된 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정할 수 있다(제3 단계). 프로세서(220)는 결정된 제1 지점의 중심점을 제1 지점과 연관된 추정 GCP로서 결정할 수 있고, 결정된 제1 지점과 연관된 추정 GCP를 실제 측량에 근거한 복수의 GCP들 중 제1 지점에 대응하는 GCP와 매칭시킬 수 있다(제4 단계). 프로세서(220)는 상기 제1 단계 내지 제4 단계를 실제 측량에 근거한 복수의 GCP들에 대응하는 지점들의 각각에 대해 수행할 수 있다(제5 단계).For example, the processor 220 may determine a first point of the points corresponding to the plurality of GCPs based on the actual measurement of the measurement target site 120 among the plurality of waypoints included in the (flight) path of the unmanned air vehicle 110, (Step < RTI ID = 0.0 > 1). ≪ / RTI > The processor 220 may identify the first images containing the determined waypoints of the plurality of images photographed (step 2). The processor 220 may determine the center point of the first point by analyzing the identified first images (step 3). The processor 220 may determine the determined center point of the first point as the estimated GCP associated with the first point and determine the estimated GCP associated with the determined first point with the GCP corresponding to the first one of the plurality of GCPs based on the actual measurement (Step 4). The processor 220 may perform the first to fourth steps for each of the points corresponding to the plurality of GCPs based on the actual measurement (step 5).

다음으로, 프로세서(220)는 결정된 추정 GCP들의 각각을 실제 측량에 근거한 복수의 GCP들의 각각에 매칭시킨 결과와, 촬영된 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지(130)를 모델링할 수 있다. Next, the processor 220 determines whether each of the determined estimated GCPs is a result of matching each of the plurality of GCPs based on the actual measurement and the resultant image 130 of two-dimensional or three-dimensional Can be modeled.

도 1 내지 도 4를 참조하여 전술된 기술적 특징은 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 4 can be applied to FIG. 5 as it is, so that redundant description will be omitted.

도 6은 일 예에 따른, 무인 비행체가 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행함으로써 측량 대상지를 촬영하는 방법을 나타낸다.FIG. 6 illustrates a method of photographing a survey site by flying a path including a plurality of waypoints on a measurement target, according to an example.

도 6에서는 무인 비행체(110)가 비행하는 복수의 웨이 포인트들(610)을 포함하는 경로와, 측량 대상지(600)에 표시된 GCP들(620)이 도시되었다. 도시된 GCP들(620)의 각각은 측량 대상지(600)에 배치된 GCP 인식판을 나타낼 수 있다. 측량 대상지(600)는 전술된 측량 대상지(120)에 대응할 수 있다. In FIG. 6, a route including a plurality of waypoints 610 through which the unmanned air vehicle 110 travels, and GCPs 620 displayed on the survey site 600 are shown. Each of the illustrated GCPs 620 may represent a GCP awareness plate disposed on the survey site 600. The survey site 600 may correspond to the survey site 120 described above.

무인 비행체(110)는 웨이 포인트들(610)을 통과하도록 비행할 수 있고, 각 웨이 포인트에서 측량 대상지(600)를 촬영할 수 있다. 측량 대상지(600)를 촬영한 이미지들은 소정의 중복도를 가지도록 촬영된 것일 수 있고, 따라서, 무인 비행체(110)는 측량 대상지(600)를 빠짐 없이 촬영할 수 있게 된다. The unmanned aerial vehicle 110 can fly to pass through the waypoints 610 and can photograph the survey site 600 at each waypoint. The images of the measurement target site 600 may be photographed so as to have a predetermined degree of overlapping. Thus, the unmanned aerial vehicle 110 can capture the survey target site 600 without fail.

프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지들로부터, 각 GCP에 대응하는 지점과 연관된 웨이 포인트를 결정할 수 있다. 예컨대, 도시된 것처럼, 프로세서(220)는 GCP(a)에 대응하는 지점과 연관된 웨이 포인트(A)를 결정할 수 있고, GCP(b)에 대응하는 지점과 연관된 웨이 포인트(B)를 결정할 수 있고, GCP(c)에 대응하는 지점과 연관된 웨이 포인트(C)를 결정할 수 있고, GCP(d)에 대응하는 지점과 연관된 웨이 포인트(D)를 결정할 수 있다. The processor 220 may determine from the images taken by the unmanned aerial vehicle 110 a waypoint associated with a point corresponding to each GCP. For example, as shown, the processor 220 may determine a waypoint A associated with a point corresponding to GCP (a) and a waypoint B associated with a point corresponding to GCP (b) , Determine a waypoint (C) associated with a point corresponding to GCP (c), and determine a waypoint (D) associated with a point corresponding to GCP (d).

프로세서(220)는 웨이 포인트(A)를 포함하는 이미지들을 분석함으로써 GCP(a)에 대응하는 지점의 중심점을 결정할 수 있고, 결정된 중심점을 GCP(a)에 대한 추정 GCP로서 결정할 수 있다. 프로세서(220)는 결정된 추정 GCP를 GCP(a)와 매칭시킬 수 있다. 프로세서(220)는 웨이 포인트(B 내지 D)와 GCP(b 내지 d)에 대해서도 동일한 과정을 반복할 수 있다. The processor 220 can determine the center point of the point corresponding to GCP (a) by analyzing the images including the waypoint A and determine the determined center point as the estimated GCP for GCP (a). Processor 220 may match the determined estimated GCP with GCP (a). Processor 220 may repeat the same process for waypoints B through D and GCP b through d.

프로세서(220)는 매칭된 결과 및 촬영된 이미지들을 사용하여 결과 이미지(130)를 모델링할 수 있다. 결과적으로, 추정 GCP와 실제 측량에 근거한 GCP 간의 매칭 작업에 따라, 촬영된 이미지들이 포함하는 오차가 교정된 결과 이미지(130)가 생성될 수 있다. Processor 220 may model the resulting image 130 using the matched results and the photographed images. As a result, in accordance with the matching operation between the estimated GCP and the GCP based on the actual measurement, a corrected result image 130 can be generated in which the errors included in the photographed images are corrected.

도 1 내지 도 5를 참조하여 전술된 기술적 특징은 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 5 may be applied to FIG. 6 as it is, so that redundant description is omitted.

도 7은 일 예에 따른, 무인 비행체에 의해 촬영된 복수의 이미지들과, GCP와 연관된 웨이 포인트 및 해당 웨이 포인트를 포함하는 이미지들을 결정하는 방법을 나타낸다.FIG. 7 illustrates a method for determining a plurality of images taken by an unmanned aerial vehicle, a waypoint associated with a GCP, and images including the waypoint, according to an example.

이미지들(710-1 내지 740-4)의 각각은 무인 비행체(110)에 의해 촬영된 이미지를 나타낼 수 있다. 도시된 것처럼, 이미지들(710-1 내지 740-4)은 소정의 중복도를 가질 수 있다. Each of the images 710-1 through 740-4 may represent an image photographed by the unmanned aerial vehicle 110. As shown, the images 710-1 through 740-4 may have a predetermined degree of redundancy.

이미지들(710-1 내지 740-4)의 각각은 웨이 포인트들(710)의 각각에서 촬영된 것일 수 있고, 웨이 포인트들(710)의 각각이 이미지들(710-1 내지 740-4)의 각각의 중심점이 될 수 있다.Each of the images 710-1 through 740-4 may have been photographed at each of the waypoints 710 and each of the waypoints 710 may be photographed at each of the images 710-1 through 740-4 It can be a center point of each.

도시된 예시와 같이, GCP(a)에 대응하는 지점과 가장 가까운 웨이 포인트(A)가 GCP(a)에 대응하는 지점과 연관된 웨이 포인트로서 결정될 수 있다. 이 때, 웨이 포인트(A)를 포함하는 이미지들(710-2 내지 740-4)이 단계(330)을 참조하여 전술된 제1 이미지들로서 식별될 수 있고, 단계(340)의 이미지 분석의 대상으로서 결정될 수 있다. As shown in the illustrated example, the waypoint A closest to the point corresponding to GCP (a) may be determined as a waypoint associated with a point corresponding to GCP (a). At this time, the images 710-2 to 740-4 including the waypoint A may be identified as the first images described above with reference to step 330, and the object of image analysis in step 340 ≪ / RTI >

도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 6 may be applied to FIG. 7 as it is, so that redundant description is omitted.

도 8은 일 예에 따른, 무인 비행체에 의해 촬영된 이미지를 캘리브레이션된 결과 이미지로서 모델링하는 방법을 나타낸다. FIG. 8 shows a method of modeling an image photographed by an unmanned aerial vehicle as a calibrated resultant image, according to an example.

도시된 이미지(810)는 무인 비행체(110)에 의해 촬영된 이미지들을 그대로 모델링한 경우의 결과 이미지를 모식적으로 나타낸 것이다. 무인 비행체(110)에 의해 촬영된 이미지들은 무인 비행체(110)의 사양이나 촬영 환경 등에 따라 오차를 포함할 수 있으므로, 모델링된 이미지(810) 역시 왜곡될 수 있다.The illustrated image 810 schematically shows the resultant image when the images photographed by the unmanned air vehicle 110 are directly modeled. The images photographed by the unmanned air vehicle 110 may include errors due to the specification of the unmanned air vehicle 110, the shooting environment, and the like, so that the modeled image 810 may be distorted.

따라서, 무인 비행체(110)에 의해 촬영된 이미지들에 대해서는 적절한 캘리브레이션이 요구되며 이러한 캘리브레이션에 따라, 캘리브레이션된 결과 이미지(820)가 모델링될 수 있다. 결과 이미지(820)는 전술된 결과 이미지(130)에 대응할 수 있다. 결과 이미지(820)는 예컨대, 2차원 고정밀 정합 이미지 또는 3차원 모델링 이미지일 수 있다. 결과 이미지(820)는 측량 대상지(120)에 대한 건축 및 정밀 측량 등을 위해 사용될 수 있다. 예컨대, 2차원 고정밀 정합 이미지를 사용하여 측량 대상지(120)의 일부 영역의 넓이가 계산되거나, 계산된 넓이에 근거하여 사용될 건축 자재의 양이 계산될 수 있다. Therefore, an appropriate calibration is required for images photographed by the unmanned aerial vehicle 110, and according to this calibration, the calibrated resultant image 820 can be modeled. The resulting image 820 may correspond to the result image 130 described above. The resulting image 820 may be, for example, a two-dimensional high-precision matched image or a three-dimensional modeling image. The resulting image 820 may be used for construction and precision measurements for the survey site 120, and so on. For example, the area of a partial area of the measurement target site 120 may be calculated using a two-dimensional high-precision matching image, or the amount of building material to be used may be calculated based on the calculated area.

전술한 실시예들을 통해서는, 실제 측량에 근거한 GCP들의 각각이 무인 비행체(110)에 의해 촬영된 이미지들에 대해 정확하게 매칭될 수 있으므로, 촬영된 이미지들에 대한 캘리브레이션이 정교하게 수행될 수 있다. 또한, 이러한 매칭 작업은 자동으로 수행될 수 있다. Through the above-described embodiments, since each of the GCPs based on the actual measurement can be accurately matched to the images photographed by the unmanned aerial vehicle 110, calibration for the photographed images can be finely performed. In addition, this matching operation can be performed automatically.

따라서, 도시된 것과 같이, 높은 정확도를 가지는 캘리브레이션된 결과 이미지(820)가 간편하게 얻어질 수 있다. Thus, as shown, a calibrated resultant image 820 with high accuracy can be easily obtained.

도 1 내지 7을 참조하여 전술된 기술적 특징은 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The technical features described above with reference to FIGS. 1 to 7 can be applied to FIG. 8 as it is, so that redundant description will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

Claims (15)

컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서,
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하는 단계;
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계;
상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는 단계;
상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키는 단계; 및
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여, 2차원 또는 3차원의 결과 이미지를 모델링하는 단계
를 포함하는, 결과 이미지를 모델링하는 방법.
A plurality of GCPs, including position information by measurement on the survey site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints on a survey site, A method of modeling a resultant image in which each of a plurality of ground control points is matched,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
Determining a waypoint associated with each point of the plurality of waypoints corresponding to the plurality of GCPs;
Identifying first ones of the plurality of images including the determined waypoints;
Determining a center point of each point by analyzing the first images;
Matching an estimated GCP associated with each of the plurality of GCPs with a GCP corresponding to each of the plurality of GCPs; And
Modeling a two- or three-dimensional result image using the plurality of images and a result of matching each of the plurality of GCPs with each of the plurality of GCPs associated with the points,
/ RTI > of the resulting image.
제1항에 있어서,
상기 복수의 이미지들은 소정의 사진 중복률을 갖도록 상기 측량 대상지를 촬영한 것이고,
상기 복수의 이미지들의 각각은 상기 측량 대상지의 일부를 촬영한 것인, 결과 이미지를 모델링하는 방법.
The method according to claim 1,
Wherein the plurality of images are obtained by photographing the survey site so as to have a predetermined rate of photograph duplication,
Wherein each of the plurality of images has taken a portion of the survey target.
제1항에 있어서,
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것이고,
상기 각 지점의 중심점을 결정하는 단계는,
상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정하는, 결과 이미지를 모델링하는 방법.
The method according to claim 1,
A GCP recognition plate is disposed at each of the points corresponding to the plurality of GCPs of the measurement target object, the plurality of images are obtained by photographing the survey target place on which the GCP recognition plate is disposed,
Wherein determining the center point of each point comprises:
Determining a center point of the GCP awareness plate disposed at each point and determining the center point of the GCP awareness plate as the estimated GCP.
제3항에 있어서,
상기 각 지점의 중심점을 결정하는 단계는,
상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하는, 결과 이미지를 모델링하는 방법.
The method of claim 3,
Wherein determining the center point of each point comprises:
Determining a center point of each point by analyzing the first images using a machine learning model, a CNN (Convolution Neural Network) model or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained; How to model.
제3항에 있어서,
상기 매칭시키는 단계는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하는 단계;
상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하는 단계; 및
상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는 단계
를 포함하는, 결과 이미지를 모델링하는 방법.
The method of claim 3,
The matching step comprises:
Recognizing an outline of a figure corresponding to a GCP recognition plate disposed at each of the points;
Extracting a pixel value corresponding to a center point of the graphic object based on the recognized outline; And
Matching a position corresponding to the pixel value with a coordinate value of a GCP corresponding to each of the plurality of GCPs
/ RTI > of the resulting image.
제5항에 있어서,
상기 GCP 인식판의 형상을 훈련한 머신러닝 모델, CNN (Convolution Neural Network) 모델 또는 DNN (Deep Neural Network) 모델을 사용하여 상기 도형의 외곽선이 인식되고, 상기 도형의 중심점에 해당하는 픽셀 값이 추출되는, 결과 이미지를 모델링하는 방법.
6. The method of claim 5,
An outline of the figure is recognized by using a machine learning model, a CNN (Convolution Neural Network) model or a DNN (Deep Neural Network) model in which the shape of the GCP recognition plate is trained, and a pixel value corresponding to the center point of the figure is extracted How to model the resulting image.
제5항에 있어서,
상기 외곽선을 인식하는 단계는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 복수 개의 외곽선들을 인식하는 단계; 및
상기 복수 개의 외곽선들의 평균을 상기 도형의 외곽선으로서 결정하는 단계
를 포함하고,
상기 복수 개의 외곽선들 중 소정의 표준 편차를 넘는 외곽선은 상기 평균의 계산에 있어서 배제되는, 결과 이미지를 모델링하는 방법.
6. The method of claim 5,
The step of recognizing the outline may include:
Recognizing a plurality of outlines of a graphic form corresponding to a GCP recognition plate disposed at each of the points; And
Determining an average of the plurality of outlines as an outline of the figure,
Lt; / RTI >
Wherein an outline beyond a predetermined standard deviation of the plurality of outlines is excluded in the calculation of the mean.
제1항에 있어서,
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계는,
상기 복수의 웨이 포인트들 중 상기 각 지점에 대해 가장 가까운 웨이 포인트를 상기 각 지점과 연관된 웨이 포인트로서 결정하는, 결과 이미지를 모델링하는 방법.
The method according to claim 1,
Wherein determining the waypoint associated with each of the points comprises:
Determining a closest waypoint for each of the plurality of waypoints as a waypoint associated with each of the plurality of waypoints.
제1항에 있어서,
상기 각 지점과 연관된 웨이 포인트를 결정하는 단계에서, 상기 복수의 웨이 포인트들 중 하나의 웨이 포인트는 상기 지점들 중 하나의 지점과 연관되는, 결과 이미지를 모델링하는 방법.
The method according to claim 1,
Wherein in determining the waypoint associated with each of the points, one waypoint of the plurality of waypoints is associated with one of the points.
제1항에 있어서,
상기 결과 이미지는, 상기 복수의 이미지들이 합성됨으로써 생성되는 상기 측량 대상지에 대한 단일한 이미지로서, 상기 지점들의 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과에 따라 캘리브레이션된 이미지인, 결과 이미지를 모델링하는 방법.
The method according to claim 1,
Wherein the resultant image is a single image for the survey site generated by combining the plurality of images, the image being a calibrated image according to a result of matching each of the estimated GCPs of the points to each of the plurality of GCPs, How to model an image.
제1항 내지 제10항 중 어느 한 항의 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램. 11. A computer program stored in a computer-readable medium for performing the method of any one of claims 1 to 10. 컴퓨터 시스템에 의해 수행되는, 측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법에 있어서,
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 제1 지점과 연관된 웨이 포인트를 결정하는 단계;
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하는 단계;
상기 제1 이미지들을 분석함으로써 상기 제1 지점의 중심점을 결정하는 단계;
상기 결정된 제1 지점의 중심점을 상기 제1 지점과 연관된 추정 GCP로서, 상기 제1 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 제1 지점에 대응하는 GCP와 매칭시키는 단계;
상기 웨이 포인트를 결정하는 단계, 상기 식별하는 단계, 상기 중심점을 결정하는 단계 및 상기 매칭시키는 단계를 상기 지점들의 각각에 대해 수행하는 단계; 및
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는 단계를 포함하는, 결과 이미지를 모델링하는 방법.
A plurality of GCPs, including position information by measurement on the survey site, using a plurality of images taken by an unmanned aerial vehicle flying a route including a plurality of waypoints on a survey site, A method of modeling a resultant image in which each of a plurality of ground control points is matched,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
Determining a waypoint associated with a first one of the plurality of waypoints corresponding to the plurality of GCPs;
Identifying first ones of the plurality of images including the determined waypoints;
Determining a center point of the first point by analyzing the first images;
Matching an estimated GCP associated with the first point to a GCP corresponding to the first one of the plurality of GCPs, the estimated GCP associated with the first point being a center point of the determined first point;
Determining the waypoint, identifying the step, determining the center point, and performing the matching on each of the points. And
Modeling the resulting image, comprising: matching each of the estimated GCPs associated with the points to each of the plurality of GCPs, and modeling the two- or three-dimensional resultant image using the plurality of images .
측량 대상지 상의 복수의 웨이 포인트들을 포함하는 경로를 비행하는 무인 비행체에 의해 촬영된 복수의 이미지들을 사용하여, 상기 측량 대상지 상에서의 측량에 의한 위치 정보를 포함하는 복수의 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 컴퓨터 시스템에 있어서,
상기 복수의 이미지들은 상기 복수의 GCP들에 대응하는 지점들을 포함하는 상기 측량 대상지를 촬영한 것이고,
상기 복수의 이미지들을 획득하는 이미지 획득부; 및
상기 획득된 복수의 이미지들을 분석 및 처리하는 프로세서
를 포함하고,
상기 프로세서는,
상기 복수의 웨이 포인트들 중 상기 복수의 GCP들에 대응하는 지점들 중 각 지점과 연관된 웨이 포인트를 결정하고,
상기 복수의 이미지들 중 상기 결정된 웨이 포인트를 포함하는 제1 이미지들을 식별하고,
상기 제1 이미지들을 분석함으로써 상기 각 지점의 중심점을 결정하고,
상기 결정된 각 지점의 중심점을 상기 각 지점과 연관된 추정 GCP로서, 상기 각 지점과 연관된 추정 GCP를 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP와 매칭시키고,
상기 지점들과 연관된 추정 GCP들의 각각을 상기 복수의 GCP들의 각각에 매칭시킨 결과 및 상기 복수의 이미지들을 사용하여 2차원 또는 3차원의 결과 이미지를 모델링하는, 컴퓨터 시스템.
A plurality of images of a plurality of GCPs (Ground Control Points) including position information by measurement on the survey site, using a plurality of images photographed by an unmanned aerial vehicle flying a path including a plurality of waypoints on a surveying object A computer system for modeling the matched result image,
Wherein the plurality of images are obtained by photographing the survey site including points corresponding to the plurality of GCPs,
An image obtaining unit obtaining the plurality of images; And
The processor for analyzing and processing the acquired plurality of images
Lt; / RTI >
The processor comprising:
Determining a waypoint associated with each point in the plurality of waypoints corresponding to the plurality of GCPs,
Identify first ones of the plurality of images that include the determined waypoints,
Determining a center point of each point by analyzing the first images,
Determining a center point of each of the determined points as an estimated GCP associated with each of the points, matching an estimated GCP associated with each of the points with a GCP corresponding to each of the plurality of GCPs,
Model each of the estimated GCPs associated with the points to a respective one of the plurality of GCPs and a two-dimensional or three-dimensional resultant image using the plurality of images.
제13항에 있어서,
상기 측량 대상지의 상기 복수의 GCP들에 대응하는 지점들의 각각에는 GCP 인식판이 배치되고, 상기 복수의 이미지들은 상기 GCP 인식판이 배치된 상기 측량 대상지를 촬영한 것이고,
상기 프로세서는, 상기 각 지점에 배치된 GCP 인식판의 중심점을 결정하고, 상기 GCP 인식판의 중심점을 상기 추정 GCP로서 결정하는, 컴퓨터 시스템.
14. The method of claim 13,
A GCP recognition plate is disposed at each of the points corresponding to the plurality of GCPs of the measurement target object, the plurality of images are obtained by photographing the survey target place on which the GCP recognition plate is disposed,
Wherein the processor determines a center point of a GCP awareness plate disposed at each of the points and determines a center point of the GCP awareness plate as the estimated GCP.
제14항에 있어서,
상기 프로세서는,
상기 각 지점에 배치된 GCP 인식판에 대응하는 도형의 외곽선을 인식하고,
상기 인식된 외곽선에 기반하여 상기 도형의 중심점에 해당하는 픽셀 값을 추출하고,
상기 픽셀 값에 대응하는 위치를, 상기 복수의 GCP들 중 상기 각 지점에 대응하는 GCP의 좌표 값과 매칭시키는, 컴퓨터 시스템.
15. The method of claim 14,
The processor comprising:
Recognizes an outline of a figure corresponding to the GCP recognition plate disposed at each of the points,
Extracting a pixel value corresponding to a center point of the figure based on the recognized outline,
And matches a position corresponding to the pixel value with a coordinate value of a GCP corresponding to each of the plurality of GCPs.
KR1020190069829A 2019-06-13 2019-06-13 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle KR102003187B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190069829A KR102003187B1 (en) 2019-06-13 2019-06-13 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190069829A KR102003187B1 (en) 2019-06-13 2019-06-13 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle

Publications (1)

Publication Number Publication Date
KR102003187B1 true KR102003187B1 (en) 2019-07-23

Family

ID=67439809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190069829A KR102003187B1 (en) 2019-06-13 2019-06-13 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle

Country Status (1)

Country Link
KR (1) KR102003187B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102129502B1 (en) * 2019-10-10 2020-07-02 (주)지트 Cadastral survey system and method using drone
KR102129408B1 (en) * 2020-01-30 2020-07-02 주식회사 디지털커브 Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
KR102195051B1 (en) * 2020-09-25 2020-12-24 김화경 System and method for creating spatial information using image information from drone and computer program for the same
CN112700227A (en) * 2021-01-11 2021-04-23 飞燕航空遥感技术有限公司 Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application
KR20210063569A (en) 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
KR102345140B1 (en) * 2021-09-14 2021-12-30 서광항업 주식회사 Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof
KR20220123901A (en) * 2021-03-02 2022-09-13 네이버랩스 주식회사 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
KR20230114457A (en) * 2022-01-25 2023-08-01 서울대학교산학협력단 Method and apparatus for analyzing river confluence shaer layer using rgb images
CN117907242A (en) * 2024-03-15 2024-04-19 贵州省第一测绘院(贵州省北斗导航位置服务中心) Homeland mapping method, system and storage medium based on dynamic remote sensing technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170090834A (en) * 2016-01-29 2017-08-08 동의대학교 산학협력단 Measurement method Based on Global Navigation Satellite System
KR20180056328A (en) * 2016-11-18 2018-05-28 주식회사 무림지앤아이 System for surveying using drone
KR20180092591A (en) * 2017-02-10 2018-08-20 네이버시스템(주) Detect algorithm for structure shape change using UAV image matching technology
KR20180121702A (en) * 2017-04-17 2018-11-08 주식회사 포스코건설 Earthwork area photograph system
KR20180127567A (en) * 2017-05-18 2018-11-29 (주)인스페이스 System for unmanned aircraft image auto geometric correction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170090834A (en) * 2016-01-29 2017-08-08 동의대학교 산학협력단 Measurement method Based on Global Navigation Satellite System
KR20180056328A (en) * 2016-11-18 2018-05-28 주식회사 무림지앤아이 System for surveying using drone
KR20180092591A (en) * 2017-02-10 2018-08-20 네이버시스템(주) Detect algorithm for structure shape change using UAV image matching technology
KR20180121702A (en) * 2017-04-17 2018-11-08 주식회사 포스코건설 Earthwork area photograph system
KR20180127567A (en) * 2017-05-18 2018-11-29 (주)인스페이스 System for unmanned aircraft image auto geometric correction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"드론사진측량" 상지대학교 지형정보연구센터(2017) *
이지웅 외 2인, "드론측량의 개요 및 활용", 유신기술회보 25호 기술정보(2018) *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102129502B1 (en) * 2019-10-10 2020-07-02 (주)지트 Cadastral survey system and method using drone
KR20210063569A (en) 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
KR102129408B1 (en) * 2020-01-30 2020-07-02 주식회사 디지털커브 Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
KR102195051B1 (en) * 2020-09-25 2020-12-24 김화경 System and method for creating spatial information using image information from drone and computer program for the same
CN112700227A (en) * 2021-01-11 2021-04-23 飞燕航空遥感技术有限公司 Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application
CN112700227B (en) * 2021-01-11 2022-05-24 飞燕航空遥感技术有限公司 Method and system for calculating standard working hours of aerial survey interior work image amplitude and land class processing and application
KR20220123901A (en) * 2021-03-02 2022-09-13 네이버랩스 주식회사 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
KR102520189B1 (en) * 2021-03-02 2023-04-10 네이버랩스 주식회사 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
KR102345140B1 (en) * 2021-09-14 2021-12-30 서광항업 주식회사 Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof
KR20230114457A (en) * 2022-01-25 2023-08-01 서울대학교산학협력단 Method and apparatus for analyzing river confluence shaer layer using rgb images
KR102665566B1 (en) 2022-01-25 2024-05-17 서울대학교산학협력단 Method and apparatus for analyzing river confluence shaer layer using rgb images
CN117907242A (en) * 2024-03-15 2024-04-19 贵州省第一测绘院(贵州省北斗导航位置服务中心) Homeland mapping method, system and storage medium based on dynamic remote sensing technology

Similar Documents

Publication Publication Date Title
KR102003187B1 (en) Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
KR102129408B1 (en) Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
US10636168B2 (en) Image processing apparatus, method, and program
KR102154950B1 (en) Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image
US10086955B2 (en) Pattern-based camera pose estimation system
JP6255085B2 (en) Locating system and locating method
KR20200044420A (en) Method and device to estimate position
US11610373B2 (en) Method of generating three-dimensional model data of object
US10451403B2 (en) Structure-based camera pose estimation system
US10895458B2 (en) Method, apparatus, and system for determining a movement of a mobile platform
US10970541B2 (en) Geo-registering an aerial image by an object detection model using machine learning
KR102234461B1 (en) Method and system for generating depth information of street view image using 2d map
US9858669B2 (en) Optimized camera pose estimation system
KR20190141892A (en) Method and system for automatically collecting and updating information about point of interest in real space
CN110703805B (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
KR102269792B1 (en) Method and apparatus for determining altitude for flying unmanned air vehicle and controlling unmanned air vehicle
KR102364615B1 (en) Method and apparatus for determining route for flying unmanned air vehicle and controlling unmanned air vehicle
George et al. Towards drone-sourced live video analytics for the construction industry
CN109978954A (en) The method and apparatus of radar and camera combined calibrating based on cabinet
CN108225273A (en) A kind of real-time runway detection method based on sensor priori
CN117274338A (en) Unmanned aerial vehicle hyperspectral image alignment method, device, terminal and storage medium
KR102366947B1 (en) METHOD AND APPARATUS FOR CONTROLLING UNMANNED AIR VEHICLE ON WHICH LiDAR IS MOUNTED
CN117132904A (en) Real-time flight position positioning method and device, aircraft and storage medium
KR20220123901A (en) Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
Pogorzelski et al. Vision Based Navigation Securing the UAV Mission Reliability

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant