KR20230076220A - Method and system for setting ground control point automatically for generating orthogonal map using drone images - Google Patents

Method and system for setting ground control point automatically for generating orthogonal map using drone images Download PDF

Info

Publication number
KR20230076220A
KR20230076220A KR1020210162942A KR20210162942A KR20230076220A KR 20230076220 A KR20230076220 A KR 20230076220A KR 1020210162942 A KR1020210162942 A KR 1020210162942A KR 20210162942 A KR20210162942 A KR 20210162942A KR 20230076220 A KR20230076220 A KR 20230076220A
Authority
KR
South Korea
Prior art keywords
gcp
ground control
control point
drone
generating
Prior art date
Application number
KR1020210162942A
Other languages
Korean (ko)
Inventor
박수철
심재균
Original Assignee
네이버시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버시스템(주) filed Critical 네이버시스템(주)
Priority to KR1020210162942A priority Critical patent/KR20230076220A/en
Publication of KR20230076220A publication Critical patent/KR20230076220A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is a method and system for automatically setting a ground control point (GCP) when generating an orthogonal map using drone images. The method for automatically setting a ground control point (GCP) when generating an orthogonal map using drone images according to the present invention comprises the steps of: collecting a plurality of images captured by a drone from the drone; applying the plurality of images to a deep learning engine to select a target image in which a GCP is captured from among the plurality of images; extracting coordinate values for a center point of the GCP from the target image; creating a mapping list by mapping latitude values and longitude values of the GCP identified in exchangeable image file format (EXIF) information of the target image to the coordinate values; and producing an orthogonal map with corrected GPS errors for the coordinate values using the mapping list. Accordingly, reliability of the orthogonal map can be improved.

Description

드론 촬영 이미지를 이용한 정사지도 생성 시의 지상기준점의 설정 자동화 방법 및 시스템{METHOD AND SYSTEM FOR SETTING GROUND CONTROL POINT AUTOMATICALLY FOR GENERATING ORTHOGONAL MAP USING DRONE IMAGES}Method and system for automating the setting of ground reference points when generating orthographic maps using drone images

본 발명은 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(Ground Control Point, GCP)의 설정 자동화 방법에 관한 것으로, 이미 제작 및 검증된 지도 위에 새로 생성된 정사지도를 매핑(이하, GeoReferencing)하는 정확도를 향상시키기 위한 방법에 관한 것이다.The present invention relates to a method for automating the setting of a Ground Control Point (GCP) when generating an orthographic map using a drone-captured image. It is about how to improve.

일반적으로 드론에 탑재된 GPS 오차 등으로 인해 정사지도 생성 시 기존 지도 상에 정확히 매핑되지 않고 어긋나는 문제가 발생한다.In general, when generating an orthographic map due to errors in the GPS mounted on the drone, it is not accurately mapped on the existing map and misalignment occurs.

이를 바로잡기 위해 지상에 지상기준점(GCP)를 설치하고 해당 위치에 대한 측량을 수행하여 정확한 GPS 좌표를 얻는다.To correct this, a ground control point (GCP) is installed on the ground and a survey is performed on the location to obtain accurate GPS coordinates.

일례로 드론이 지상기준점(GCP)을 포함하여 촬영을 하면, 촬영된 이미지 상에 나타나는 지상기준점(GCP)에서의 중심지점의 x, y좌표값에, 지상기준점(GCP) 설치 위치의 위도값 및 경도값을 매핑시킴으로써 GPS 오차를 보정하여, GeoReferencing 오차를 최소화한다.For example, if a drone shoots including a ground control point (GCP), the x, y coordinates of the central point in the ground control point (GCP) appearing on the captured image, the latitude value of the ground control point (GCP) installation location, and GeoReferencing errors are minimized by correcting GPS errors by mapping longitude values.

이 과정에서 수많은 드론 촬영 사진 중에서 지상기준점(GCP)이 촬영된 사진을 찾아, 해당 사진에서 지상기준점(GCP)의 위치 좌표값을 추출하는 과정을 수차례 반복해야 하는 번거로움이 있다.In this process, it is inconvenient to repeat the process of finding a picture in which a ground control point (GCP) has been taken among numerous drone-captured pictures and extracting the location coordinate values of the ground control point (GCP) from the corresponding picture several times.

이에 따라 수많은 드론 촬영 사진 중에서 지상기준점(GCP)이 촬영된 사진을 자동으로 선별해 지상기준점(GCP)의 위치 좌표값을 자동 추출할 수 있는 기술이 요구된다.Accordingly, there is a need for a technology capable of automatically extracting the location coordinate values of the ground control point (GCP) by automatically selecting a picture in which the ground control point (GCP) is taken from among numerous drone photos.

본 발명의 실시예는 드론에 의해 촬영된 이미지 중에서 지상기준점(GCP)이 촬영된 이미지를 선별하여 지상기준점(GCP)의 좌표값을 추출하고 추출된 지상기준점(GCP)의 좌표값에 지상기준점(GCP)의 위도값 및 경도값을 매핑하여, GPS 오차를 보정하는 과정을 자동화함으로써, 정사지도 제작의 효율을 높이는 것을 목적으로 한다.An embodiment of the present invention selects an image in which a ground control point (GCP) is captured from among images taken by a drone, extracts coordinate values of the ground control point (GCP), and adds the coordinate values of the extracted ground control point (GCP) to the ground control point ( The purpose of this study is to increase the efficiency of orthographic map production by automating the process of correcting GPS errors by mapping latitude and longitude values of GCP).

본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법은, 드론에 의해 촬영된 복수의 이미지를 상기 드론으로부터 수집하는 단계와, 상기 복수의 이미지를 딥러닝 엔진에 적용하여, 상기 복수의 이미지 중에서 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 단계와, 상기 대상 이미지로부터 상기 지상기준점(GCP)의 중심점에 대한 좌표값을 추출하는 단계와, 상기 좌표값에 상기 대상 이미지의 EXIF(exchangeable image file format) 정보에서 식별한 상기 지상기준점(GCP)의 위도값 및 경도값을 매핑하여 매핑 목록을 생성하는 단계, 및 상기 매핑 목록을 이용하여, 상기 좌표값에 대한 GPS 오차를 보정한 정사지도를 제작하는 단계를 포함할 수 있다.According to the present invention, a method for automating the setting of ground control points (GCPs) when generating an orthographic map using a drone-captured image includes the steps of collecting a plurality of images taken by a drone from the drone, and sending the plurality of images to a deep learning engine. and selecting a target image in which a ground control point (GCP) is photographed from among the plurality of images, extracting coordinate values of the center point of the ground control point (GCP) from the target image, and generating a mapping list by mapping the latitude and longitude values of the ground control point (GCP) identified in the EXIF (exchangeable image file format) information of the target image; and using the mapping list, A step of producing an orthographic map correcting a GPS error may be included.

또한, 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템은, 드론에 의해 촬영된 복수의 이미지를 상기 드론으로부터 수집하는 수집부와, 상기 복수의 이미지를 딥러닝 엔진에 적용하여, 상기 복수의 이미지 중에서 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 선별부와, 상기 대상 이미지로부터 상기 지상기준점(GCP)의 중심점에 대한 좌표값을 추출하는 추출부와, 상기 좌표값에 상기 대상 이미지의 EXIF 정보에서 식별한 상기 지상기준점(GCP)의 위도값 및 경도값을 매핑하여 매핑 목록을 생성하는 생성부, 및 상기 매핑 목록을 이용하여, 상기 좌표값에 대한 GPS 오차를 보정한 정사지도를 제작하는 제작부를 포함할 수 있다.In addition, the system for automating the setting of a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention includes a collection unit that collects a plurality of images taken by a drone from the drone, and a deep image of the plurality of images. Applied to a learning engine, a selection unit that selects a target image in which a ground control point (GCP) is photographed from among the plurality of images, and an extraction unit that extracts coordinate values of the center point of the ground control point (GCP) from the target image; , a generator for generating a mapping list by mapping the coordinate values with the latitude and longitude values of the ground control point (GCP) identified in the EXIF information of the target image, and using the mapping list, It may include a production unit for producing an orthographic map correcting GPS errors.

본 발명에 따르면, 드론에 의해 촬영된 수많은 지상 이미지 중에서 지상기준점(GCP)이 포함된 이미지를 선별하여, GPS 오차 보정에 필요한 지상기준점(GCP)의 위치 좌표값을 추출하고, 지상기준점(GCP)의 위도값 및 경도값에 매핑하는 반복적인 작업을 자동화 함으로써, 지오레퍼런싱(GeoReferencing) 정확도 높은 정사지도 제작을 위한 인건비와 시간을 단축하고, 수작업에 의한 오류 가능성을 최소화하여, 정사지도의 신뢰성을 향상시킬 수 있다.According to the present invention, an image including a ground control point (GCP) is selected from among numerous ground images taken by a drone, the location coordinate values of the ground control point (GCP) required for GPS error correction are extracted, and the ground control point (GCP) By automating the repetitive work of mapping to the latitude and longitude values of GeoReferencing, labor costs and time for producing orthographic maps with high accuracy are reduced, and the possibility of manual error is minimized, thereby increasing the reliability of orthographic maps. can improve

도 1은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템의 구성을 도시한 블록도이다.
도 2는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 지상의 복수 지점에 지상기준점(GCP) 설치된 지도를 예시한 도면이다.
도 3은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 지상기준점(GCP)을 포함한 드론의 촬영 이미지를 예시한 도면이다.
도 4는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 하나의 지상기준점(GCP)에 대해 상이한 위치에서 복수 촬영하는 일례를 도시한 도면이다.
도 5는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 도 4에 도시된 상이한 위치에서 복수 촬영된 이미지를 예시한 도면이다.
도 6은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법의 순서를 도시한 흐름도이다.
1 is a block diagram showing the configuration of an automated system for setting a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.
2 is a diagram illustrating a map in which ground control points (GCPs) are installed at a plurality of points on the ground in the automatic system for setting ground control points (GCPs) when generating an orthographic map using a drone-captured image according to the present invention.
3 is a diagram illustrating images captured by a drone including ground control points (GCPs) in the system for automatically setting ground control points (GCPs) when generating an orthographic map using images taken by a drone according to the present invention.
4 is a diagram showing an example of taking multiple shots at different locations for one ground control point (GCP) in the automatic system for setting the ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.
FIG. 5 is a diagram illustrating multiple captured images at different locations shown in FIG. 4 in the automatic system for setting a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.
6 is a flowchart illustrating a sequence of an automated method for setting ground control points (GCPs) when generating an orthographic map using a drone-captured image according to the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

도 1은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of an automated system for setting a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.

도 1을 참조하면, 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템(100)은, 수집부(110), 선별부(120), 추출부(130), 생성부(140), 제작부(150) 및 학습부(160)를 포함하여 구성할 수 있다.Referring to FIG. 1 , the automatic system 100 for setting a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention includes a collection unit 110, a sorting unit 120, and an extraction unit 130 , It can be configured to include a generation unit 140, a production unit 150 and a learning unit 160.

수집부(110)는 드론에 의해 촬영된 복수의 이미지를 상기 드론으로부터 수집한다.The collection unit 110 collects a plurality of images taken by the drone from the drone.

선별부(120)는 상기 복수의 이미지를 딥러닝 엔진에 적용하여, 상기 복수의 이미지 중에서 지상기준점(GCP)이 촬영된 대상 이미지를 선별한다.The selection unit 120 applies the plurality of images to the deep learning engine, and selects a target image in which a ground control point (GCP) is photographed from among the plurality of images.

발명의 구현에 앞서, 수집부(110)는 상기 지상기준점(GCP)을 촬영하는 드론의 촬영 고도 및 촬영 각도를 변경하는 제어 명령을 발생하고, 상기 제어 명령에 따라 상기 촬영 고도 및 촬영 각도가 변경된 상기 드론으로부터, 상기 지상기준점(GCP)을 촬영한 이미지를 수집할 수 있다.Prior to the implementation of the invention, the collection unit 110 generates a control command for changing the shooting altitude and shooting angle of the drone that captures the ground control point (GCP), and the shooting altitude and shooting angle are changed according to the control command. Images of the ground control point (GCP) may be collected from the drone.

학습부(160)는 상기 수집된 이미지 내 상기 지상기준점(GCP)의 영역을 라벨링하고, 상기 수집된 이미지와 상기 라벨링한 값을 딥러닝하여, 동일한 형상의 상기 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 상기 딥러닝 엔진을 구축한다.The learning unit 160 labels the area of the ground control point (GCP) in the collected image, deep-learns the collected image and the labeled value, and performs a deep learning operation on the subject where the ground control point (GCP) of the same shape is photographed. Build the deep learning engine that selects images.

이에 따라 선별부(120)는 상기 딥러닝 엔진을 활용하여, 드론에 의해 촬영된 수많은 이미지 중에서 동일한 형상의 지상기준점(GCP)이 포함된 대상 이미지를 손쉽게 찾아낼 수 있다.Accordingly, the selection unit 120 can easily find a target image including a ground control point (GCP) of the same shape among numerous images captured by the drone by using the deep learning engine.

추출부(130)는 상기 대상 이미지로부터 상기 지상기준점(GCP)의 중심점에 대한 좌표값을 추출한다.The extraction unit 130 extracts the coordinate values of the center point of the ground control point (GCP) from the target image.

생성부(140)는 상기 대상 이미지의 EXIF(exchangeable image file format) 정보로부터 상기 지상기준점(GCP)의 위도값 및 경도값을 식별하고, 상기 좌표값에 상기 위도값 및 경도값을 매핑하여, 매핑 목록을 생성한다.The generating unit 140 identifies the latitude and longitude values of the ground control point (GCP) from the EXIF (exchangeable image file format) information of the target image, maps the latitude and longitude values to the coordinate values, and maps the latitude and longitude values to the coordinate values. create a list

이때 상기 딥러닝 엔진에 의해 복수의 대상 이미지가 선별되는 경우, 생성부(140)는 상기 복수의 대상 이미지 각각으로부터 식별된 상기 지상기준점(GCP)의 위도값 및 경도값 중에서, 상기 지상기준점(GCP)의 중심점에 대한 좌표값과 가장 가까운 위도값 및 경도값을 선택할 수 있다.At this time, when a plurality of target images are selected by the deep learning engine, the generation unit 140 selects the ground control point (GCP) among the latitude and longitude values of the ground control point (GCP) identified from each of the plurality of target images. ), the latitude and longitude values closest to the coordinates of the center point can be selected.

생성부(140)는 선택된 위도값 및 경도값을 상기 좌표값에 매핑하여, 상기 매핑 목록을 생성할 수 있다.The generating unit 140 may generate the mapping list by mapping the selected latitude and longitude values to the coordinate values.

제작부(150)는 상기 매핑 목록을 이용하여, 상기 좌표값에 대한 GPS 오차를 보정한 정사지도를 제작한다.The production unit 150 uses the mapping list to create an orthographic map in which GPS errors for the coordinate values are corrected.

이와 같이, 본 발명에 따르면, 드론에 의해 촬영된 수많은 지상 이미지 중에서 지상기준점(GCP)이 포함된 이미지를 선별하여, GPS 오차 보정에 필요한 지상기준점(GCP)의 위치 좌표값을 추출하고, 지상기준점(GCP)의 위도값 및 경도값에 매핑하는 반복적인 작업을 자동화 함으로써, GeoReferencing 정확도 높은 정사지도 제작을 위한 인건비와 시간을 단축하고, 수작업에 의한 오류 가능성을 최소화하여, 정사지도의 신뢰성을 향상시킬 수 있다.As such, according to the present invention, an image including a ground control point (GCP) is selected from among numerous terrestrial images taken by a drone, the location coordinate values of the ground control point (GCP) required for GPS error correction are extracted, and the ground control point By automating the repetitive work of mapping to the latitude and longitude values of (GCP), labor costs and time for producing orthographic maps with high GeoReferencing accuracy are reduced, and the possibility of manual errors is minimized, thereby improving the reliability of orthographic maps. can

이하에서는 도 2 내지 도 5를 참조해 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템을 구체적으로 설명한다.Hereinafter, referring to FIGS. 2 to 5 , a ground control point (GCP) setting automation system when generating an orthographic map using a drone-captured image according to the present invention will be described in detail.

(1단계 - 촬영 준비 단계)(Step 1 - Preparing for filming)

본 단계에서는 드론 비행에 앞서, 촬영 대상 구역에 지상기준점(GCP)을 설치하고, GPS 위도값 및 경도값 등록하는 과정이 수행된다.In this step, prior to drone flight, a ground control point (GCP) is installed in the area to be photographed, and a process of registering GPS latitude and longitude values is performed.

지상기준점(GCP)은 일정 고도로 비행 중인 드론의 카메라를 통해 식별 가능한 크기로 제작될 수 있고, 기성 제품이 사용될 수 있다.The ground control point (GCP) can be manufactured in a size that can be identified through a camera of a drone flying at a certain altitude, and an off-the-shelf product can be used.

도 2는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 지상의 복수 지점에 지상기준점(GCP) 설치된 지도를 예시한 도면이다.2 is a diagram illustrating a map in which ground control points (GCPs) are installed at a plurality of points on the ground in the automatic system for setting ground control points (GCPs) when generating an orthographic map using a drone-captured image according to the present invention.

도 2에는 지상의 식별 가능한 4개 지점에 설치된 지상기준점(GCP)(210)을 나타낸 지도(200)가 도시되어 있다.FIG. 2 shows a map 200 showing ground control points (GCPs) 210 installed at four identifiable points on the ground.

본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템은 지상기준점(GCP)의 중심점에 대해 측량을 수행하거나 위성지도상에서 GPS 위도값 및 경도값을 식별할 수 있는 곳에 지상기준점(GCP)를 설치하여 해당 위도값 및 경도값을 지상기준점(GCP) 자동 설정 시스템에 등록한다.According to the present invention, when generating an orthographic map using a drone-captured image, the ground control point (GCP) setting automation system performs a survey on the center point of the ground control point (GCP) or identifies GPS latitude and longitude values on a satellite map. A ground control point (GCP) is installed at a location and the corresponding latitude and longitude values are registered in the automatic ground control point (GCP) setting system.

지상기준점(GCP)은 촬영 대상 구역의 4개 꼭지점 인근이나 중앙 등 고르게 분포되어 배치될 수 있고, 촬영 대상 구역의 크기나 모양에 따라 최소 6개 이상의 적정 수량의 GCP가 배치될 수 있다. The ground control points (GCPs) may be evenly distributed around or in the center of the four vertexes of the area to be captured, and an appropriate number of at least 6 or more GCPs may be arranged according to the size or shape of the area to be captured.

동일한 촬영 대상 구역을 반복적으로 촬영하여 시계열 정사지도를 제작하려는 경우에는, 지상기준점(GCP)에 대한 좌표 등록 과정은 최초 1회만 수행된다.When trying to produce a time-series orthographic map by repeatedly photographing the same shooting target area, the coordinate registration process for the ground control point (GCP) is initially performed only once.

(2단계 - 지상기준점(GCP) 이미지에 대한 딥러닝 학습)(Step 2 - Deep learning training on ground control point (GCP) images)

본 단계에서는 드론을 제어하여 상공에서 지상기준점(GCP)을 촬영하여 학습용 이미지를 생성하는 과정이 수행된다.In this step, a process of generating an image for learning is performed by controlling a drone to photograph a ground control point (GCP) in the air.

고도와 촬영 각도를 달리하면서 여러 장의 시진을 촬영하고 해당 이미지에서 지상기준점(GCP) 영역에 대해 라벨링 후 딥러닝 학습이 수행된다.Several shots are taken while varying the altitude and shooting angle, and deep learning is performed after labeling the ground control point (GCP) area in the image.

딥러닝 알고리즘은 이미 검증되어 널리 사용되는 다양한 이미지 처리 알고리즘이 사용될 수 있고, 동일한 모양의 지상기준점(GCP)에 대해 최초 1회만 딥러닝 학습이 수행된다.The deep learning algorithm can be used with various image processing algorithms that have already been verified and widely used, and deep learning is performed only once for the first time on a ground control point (GCP) of the same shape.

(3단계 - 촬영)(Step 3 - Shooting)

본 단계에서는 촬영 대상 구역에서 드론을 제어하여 촬영이 수행된다. 촬영 고도는 촬영된 이미지에서 지상기준점(GCP)이 식별 가능한 정도의 고도 범위로 설정된다.In this step, shooting is performed by controlling the drone in the shooting target area. The photographing altitude is set to an altitude range in which a ground control point (GCP) can be identified in the photographed image.

도 3은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 지상기준점(GCP)을 포함한 드론의 촬영 이미지를 예시한 도면이다.3 is a diagram illustrating images captured by a drone including ground control points (GCPs) in the system for automatically setting ground control points (GCPs) when generating an orthographic map using images taken by a drone according to the present invention.

도 3을 참조하면, 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템은, 드론을 제어하여 지상기준점(GCP)(310)을 포함한 이미지(300)를 촬영할 수 있다.Referring to FIG. 3 , when generating an orthographic map using a drone-captured image according to the present invention, a ground control point (GCP) setting automation system controls a drone to capture an image 300 including a ground control point (GCP) 310. can

또한 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템은, 촬영 대상지 전역을 균일한 중복도를 가지고 촬영하여, 각각의 지상기준점(GCP)을 포함한 여러 장의 사진을 촬영할 수 있다.In addition, the automatic system for setting the ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention captures the entire area of the shooting target with a uniform overlap, and takes several photos including each ground control point (GCP). can be filmed.

도 4는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 하나의 지상기준점(GCP)에 대해 상이한 위치에서 복수 촬영하는 일례를 도시한 도면이다.4 is a diagram showing an example of taking multiple shots at different locations for one ground control point (GCP) in the automatic system for setting the ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.

도 4에는 지도(400)에 설치된 4개의 지상기준점(GCP) 중 하나의 지상기준점(GCP)을 각기 상이한 위치(시점)(410, 420)에서 복수 촬영하는 일례가 도시되어 있다. FIG. 4 shows an example of taking multiple pictures of one of the four ground control points (GCPs) installed on the map 400 at different positions (viewpoints) 410 and 420 .

도 5는 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 시스템에서, 도 4에 도시된 상이한 위치에서 복수 촬영된 이미지를 예시한 도면이다.FIG. 5 is a diagram illustrating multiple captured images at different locations shown in FIG. 4 in the automatic system for setting a ground control point (GCP) when generating an orthographic map using a drone-captured image according to the present invention.

도 5의 (a)에는 도 4의 위치(410)에서 촬영된 이미지가 도시되고, 도 5의 (b)에는 도 4의 위치(420)에서 촬영된 이미지가 도시된다. 도 5의 (a)와 (b)는 설치된 하나의 지상기준점(GCP)에 대해 중복도를 고려해 촬영된 2장의 사진을 표시한 예이다.In (a) of FIG. 5, an image taken at the position 410 of FIG. 4 is shown, and in (b) of FIG. 5, an image taken at the position 420 in FIG. 4 is shown. 5 (a) and (b) are examples of displaying two pictures taken in consideration of the degree of overlap with respect to one installed ground control point (GCP).

도 5의 (a)와 (b)에 도시된 각 이미지 상에 나타나는 지상기준점(GCP)의 중심점은 촬영 위치(시점)(410, 420)가 바뀌면서 서로 다른 X, Y 좌표 값을 가지게 되지만, 지상기준점(GCP)의 중심점에 대한 GPS 위도값 및 경도값은 도 5의 (a)와 (b)에서 동일하게 된다.The center point of the ground control point (GCP) appearing on each image shown in (a) and (b) of FIG. 5 has different X and Y coordinate values as the shooting position (view point) 410 and 420 changes, but the ground The GPS latitude and longitude values for the center point of the reference point (GCP) are the same in (a) and (b) of FIG. 5 .

(4단계 - 이미지 업로드 및 자동 정사지도 생성)(Step 4 - Image Upload and Automatic Orthographic Map Generation)

본 단계에서는, 1)드론에 의해 촬영된 복수의 이미지를 수집하고, 2)수집된 복수의 이미지를 딥러닝 엔진에 적용하여, 이미지 내 지상기준점(GCP)이 식별되는 대상 이미지를 선별하고, 선별한 대상 이미지에서 지상기준점(GCP)의 중심점에 대한 X, Y 좌표를 추출하는 과정이 수행된다.In this step, 1) collecting a plurality of images taken by the drone, 2) applying the collected plurality of images to the deep learning engine, selecting a target image in which a ground control point (GCP) is identified in the image, and selecting A process of extracting the X and Y coordinates of the center point of the ground control point (GCP) from one target image is performed.

이어서 3)지상기준점(GCP)이 포함된 이미지의 EXIF(exchangeable image file format) 정보를 추출하여, 해당 이미지가 촬영된 위도값 및 경도값을 식별하는 과정이 수행된다.Then, 3) EXIF (exchangeable image file format) information of the image including the ground control point (GCP) is extracted, and a process of identifying latitude and longitude values of the image is performed.

이어서 4)사전(1단계 - 촬영 준비 단계)에 등록된 지상기준점(GCP) 목록에서 위도값 및 경도값을 추출하고, 3단계에서 추출한 이미지 촬영한 위도값 및 경도값과 비교하여, 가장 가까운 거리의 지상기준점(GCP) 위도값 및 경도값과 이미지 상의 X,Y 좌표를 매핑시키는 과정이 수행된다.4) Latitude and longitude values are extracted from the list of ground control points (GCP) registered in advance (step 1 - shooting preparation step), and compared with the latitude and longitude values of the image extracted in step 3, the closest distance A process of mapping the ground control point (GCP) latitude and longitude values of X and Y coordinates on the image is performed.

상술한 과정이 드론에 의해 촬영된 이미지의 수 만큼 반복 수행되면, 6)이미지별 X,Y 좌표와 지상기준점(GCP) 위도값 및 경도값의 매핑 목록이 완성되고, 이 정보를 기준으로 지상기준점(GCP) 정보 파일을 생성하여, 정사지도를 제작하는 제작 시스템으로 전송하는 과정이 수행된다.If the above process is repeated as many times as the number of images taken by the drone, 6) A mapping list of X, Y coordinates for each image and GCP latitude and longitude values is completed, and based on this information, the ground control point A process of generating (GCP) information files and transmitting them to a production system for producing orthographic maps is performed.

참고로, 널리 알려진 상용, 오픈소스 기반 정사지도 제작 시스템 (예, Pix4D, OpenDroneMap) 은 이와 같은 지상기준점(GCP) 정보 파일을 입력으로 받을 수 있도록 설계되어 있다.For reference, well-known commercial and open-source orthographic mapping systems (eg, Pix4D, OpenDroneMap) are designed to receive such ground control point (GCP) information files as input.

도 6은 본 발명에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법의 순서를 도시한 흐름도이다.6 is a flowchart illustrating a sequence of an automated method for setting ground control points (GCPs) when generating an orthographic map using a drone-captured image according to the present invention.

본 실시예에 따른 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법은, 상술한 지상기준점(GCP)의 설정 자동화 시스템(100)에 의해 수행될 수 있다.A method for automating setting of ground control points (GCPs) when generating an orthographic map using a drone-captured image according to the present embodiment may be performed by the above-described system 100 for automating setting of ground control points (GCPs).

도 6을 참조하면, 단계(610)에서 지상기준점(GCP)의 설정 자동화 시스템(100)은 드론에 의해 촬영된 복수의 이미지를 드론으로부터 수집한다.Referring to FIG. 6 , in step 610, the ground control point (GCP) setting automation system 100 collects a plurality of images taken by the drone from the drone.

단계(620)에서 지상기준점(GCP)의 설정 자동화 시스템(100)은 상기 복수의 이미지를 딥러닝 엔진에 적용하여, 상기 복수의 이미지 중에서 지상기준점(GCP)이 촬영된 대상 이미지를 선별한다.In step 620, the ground control point (GCP) setting automation system 100 applies the plurality of images to the deep learning engine, and selects a target image in which the ground control point (GCP) is captured from among the plurality of images.

상기 딥러닝 엔진은, 드론을 통해 지상기준점(GCP)을 촬영한 다수의 학습용 이미지를 딥러닝하는 것으로 구축될 수 있다.The deep learning engine may be built by performing deep learning on a plurality of images for learning obtained by taking ground control points (GCPs) through drones.

구체적으로 지상기준점(GCP)의 설정 자동화 시스템(100)은, 지상기준점(GCP)을 촬영하는 드론의 촬영 고도 및 촬영 각도를 변경하는 제어 명령을 발생하여, 상기 제어 명령에 따라 상기 촬영 고도 및 촬영 각도가 변경된 드론으로부터, 상기 지상기준점(GCP)을 촬영한 다수의 학습용 이미지를 수집하고, 수집된 학습용 이미지 내에 지상기준점(GCP)의 영역을 라벨링한 후 딥러닝하여, 동일한 형상의 상기 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 상기 딥러닝 엔진을 구축할 수 있다.Specifically, the ground control point (GCP) setting automation system 100 generates a control command to change the shooting altitude and shooting angle of the drone that shoots the ground control point (GCP), and the shooting altitude and shooting according to the control command. From the drone whose angle is changed, a plurality of learning images of the ground control point (GCP) are collected, and after labeling the area of the ground control point (GCP) in the collected training images, deep learning is performed, and the ground control point (GCP) of the same shape ( GCP) can build the deep learning engine that selects the captured target image.

단계(630)에서 지상기준점(GCP)의 설정 자동화 시스템(100)은 상기 대상 이미지로부터 상기 지상기준점(GCP)의 중심점에 대한 좌표값을 추출한다.In step 630, the ground control point (GCP) setting automation system 100 extracts the coordinate values of the center point of the ground control point (GCP) from the target image.

단계(640)에서 지상기준점(GCP)의 설정 자동화 시스템(100)은 상기 대상 이미지의 EXIF 정보에서 상기 지상기준점(GCP)의 위도값 및 경도값을 식별하여, 상기 단계(630)에서 추출된 좌표값에 매핑하여, 매핑 목록을 생성한다.In step 640, the ground control point (GCP) setting automation system 100 identifies the latitude and longitude values of the ground control point (GCP) from the EXIF information of the target image, and the coordinates extracted in step 630. Map to a value to create a list of mappings.

실시예에 따라 상기 딥러닝 엔진에 의해 복수의 대상 이미지가 선별되는 경우, 지상기준점(GCP)의 설정 자동화 시스템(100)은 상기 복수의 대상 이미지 각각으로부터 식별된 상기 지상기준점(GCP)의 위도값 및 경도값 중, 상기 좌표값과 가장 가까운 위도값 및 경도값을 선택하고, 선택된 위도값 및 경도값을 상기 좌표값에 매핑하여 상기 매핑 목록을 생성할 수 있다.According to an embodiment, when a plurality of target images are selected by the deep learning engine, the ground control point (GCP) setting automation system 100 determines the latitude value of the ground control point (GCP) identified from each of the plurality of target images. The mapping list may be generated by selecting a latitude value and a longitude value closest to the coordinate value among the longitude values and mapping the selected latitude and longitude values to the coordinate values.

단계(650)에서 지상기준점(GCP)의 설정 자동화 시스템(100)은 상기 매핑 목록을 이용하여, 상기 좌표값에 대한 GPS 오차를 보정한 정사지도를 제작한다.In step 650, the ground control point (GCP) setting automation system 100 uses the mapping list to produce an orthographic map in which GPS errors for the coordinate values are corrected.

따라서 본 발명에 따르면, 드론에 의해 촬영된 이미지 중에서 지상기준점(GCP)이 촬영된 이미지를 선별하여 지상기준점(GCP)의 좌표값을 추출하고, 추출된 지상기준점(GCP)의 좌표값에 지상기준점(GCP)의 위도값 및 경도값을 매핑하여, GPS 오차를 보정하는 과정을 자동화함으로써, 정사지도 제작의 효율을 높일 수 있다.Therefore, according to the present invention, the coordinate values of the ground control points (GCPs) are extracted by selecting the images in which the ground control points (GCPs) are photographed from among the images taken by the drone, and the coordinate values of the extracted ground control points (GCPs) are added to the ground control points. By automating the process of correcting GPS errors by mapping latitude and longitude values of (GCP), the efficiency of orthographic map production can be increased.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

100: 지상기준점(GCP)의 설정 자동화 시스템
110: 수집부
120: 선별부
130: 추출부
140: 생성부
150: 제작부
160: 학습부
100: Automatic system for setting ground control points (GCP)
110: collection unit
120: selection unit
130: extraction unit
140: generating unit
150: production department
160: learning unit

Claims (3)

드론에 의해 촬영된 복수의 이미지를 상기 드론으로부터 수집하는 단계;
상기 복수의 이미지를 딥러닝 엔진에 적용하여, 상기 복수의 이미지 중에서 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 단계;
상기 대상 이미지로부터 상기 지상기준점(GCP)의 중심점에 대한 좌표값을 추출하는 단계;
상기 좌표값에, 상기 대상 이미지의 EXIF(exchangeable image file format) 정보에서 식별한 상기 지상기준점(GCP)의 위도값 및 경도값을 매핑하여, 매핑 목록을 생성하는 단계; 및
상기 매핑 목록을 이용하여, 상기 좌표값에 대한 GPS 오차를 보정한 정사지도를 제작하는 단계
를 포함하는 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법.
Collecting a plurality of images taken by the drone from the drone;
applying the plurality of images to a deep learning engine and selecting a target image in which a ground control point (GCP) is photographed from among the plurality of images;
extracting coordinate values of the center point of the ground control point (GCP) from the target image;
generating a mapping list by mapping latitude values and longitude values of the ground control point (GCP) identified in EXIF (exchangeable image file format) information of the target image to the coordinate values; and
Creating an orthographic map correcting GPS errors for the coordinate values using the mapping list
A method for automating the setting of a ground control point (GCP) when generating an orthographic map using a drone-captured image.
제1항에 있어서,
상기 지상기준점(GCP)을 촬영하는 드론의 촬영 고도 및 촬영 각도를 변경하는 제어 명령을 발생하는 단계;
상기 제어 명령에 따라 상기 촬영 고도 및 촬영 각도가 변경된 상기 드론으로부터, 상기 지상기준점(GCP)을 촬영한 이미지를 수집하는 단계;
상기 수집된 이미지 내 상기 지상기준점(GCP)의 영역을 라벨링하는 단계; 및
상기 수집된 이미지와 상기 라벨링한 값을 딥러닝하여, 동일한 형상의 상기 지상기준점(GCP)이 촬영된 대상 이미지를 선별하는 상기 딥러닝 엔진을 구축하는 단계
를 더 포함하는 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법.
According to claim 1,
generating a control command for changing a photographing altitude and a photographing angle of a drone that photographs the ground control point (GCP);
collecting an image of the ground control point (GCP) from the drone whose photographing altitude and photographing angle are changed according to the control command;
labeling an area of the ground control point (GCP) in the collected image; and
Constructing the deep learning engine for selecting a target image in which the ground control point (GCP) of the same shape is captured by deep learning the collected image and the labeled value
A method for automating the setting of a ground control point (GCP) when generating an orthographic map using a drone photographed image further comprising a.
제1항에 있어서,
상기 딥러닝 엔진에 의해 복수의 대상 이미지가 선별되는 경우,
상기 복수의 대상 이미지 각각으로부터 식별된 상기 지상기준점(GCP)의 위도값 및 경도값 중, 상기 좌표값과 가장 가까운 위도값 및 경도값을 선택하는 단계
를 더 포함하고,
상기 매핑 목록을 생성하는 단계는,
상기 선택된 위도값 및 경도값을 상기 좌표값에 매핑하여 상기 매핑 목록을 생성하는 단계
를 포함하는 드론 촬영 이미지를 이용한 정사지도 생성 시 지상기준점(GCP)의 설정 자동화 방법.
According to claim 1,
When a plurality of target images are selected by the deep learning engine,
Selecting a latitude value and a longitude value closest to the coordinate value among the latitude values and longitude values of the ground control point (GCP) identified from each of the plurality of target images
Including more,
The step of generating the mapping list,
generating the mapping list by mapping the selected latitude and longitude values to the coordinate values;
A method for automating the setting of a ground control point (GCP) when generating an orthographic map using a drone-captured image.
KR1020210162942A 2021-11-24 2021-11-24 Method and system for setting ground control point automatically for generating orthogonal map using drone images KR20230076220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210162942A KR20230076220A (en) 2021-11-24 2021-11-24 Method and system for setting ground control point automatically for generating orthogonal map using drone images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210162942A KR20230076220A (en) 2021-11-24 2021-11-24 Method and system for setting ground control point automatically for generating orthogonal map using drone images

Publications (1)

Publication Number Publication Date
KR20230076220A true KR20230076220A (en) 2023-05-31

Family

ID=86542770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210162942A KR20230076220A (en) 2021-11-24 2021-11-24 Method and system for setting ground control point automatically for generating orthogonal map using drone images

Country Status (1)

Country Link
KR (1) KR20230076220A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220381561A1 (en) * 2016-03-08 2022-12-01 Skydio, Inc. Ground control point assignment and determination system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220381561A1 (en) * 2016-03-08 2022-12-01 Skydio, Inc. Ground control point assignment and determination system
US11933613B2 (en) * 2016-03-08 2024-03-19 Skydio, Inc. Ground control point assignment and determination system

Similar Documents

Publication Publication Date Title
CN109324337B (en) Unmanned aerial vehicle route generation and positioning method and device and unmanned aerial vehicle
CN110799921A (en) Shooting method and device and unmanned aerial vehicle
US20160140744A1 (en) Aligning Panoramic Imagery and Aerial Imagery
CN109658461A (en) A kind of unmanned plane localization method of the cooperation two dimensional code based on virtual simulation environment
KR101617078B1 (en) Apparatus and method for image matching unmanned aerial vehicle image with map image
US8994821B2 (en) Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
JP6877293B2 (en) Location information recording method and equipment
WO2015199772A2 (en) Method and system of stitching aerial data using information from previous aerial images
WO2021035731A1 (en) Control method and apparatus for unmanned aerial vehicle, and computer readable storage medium
CN112184890A (en) Camera accurate positioning method applied to electronic map and processing terminal
JP2015114954A (en) Photographing image analysis method
JP2019045991A (en) Generation device, generation method and program
US9816786B2 (en) Method for automatically generating a three-dimensional reference model as terrain information for an imaging device
KR20160082886A (en) Method and system for mapping using UAV and multi-sensor
KR20230076220A (en) Method and system for setting ground control point automatically for generating orthogonal map using drone images
CN115423863A (en) Camera pose estimation method and device and computer readable storage medium
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform
CN110458945B (en) Automatic modeling method and system by combining aerial oblique photography with video data
CN110019610A (en) Map tile generation method, apparatus and system
Tsao et al. Stitching aerial images for vehicle positioning and tracking
CN105242248B (en) A kind of automatic method for stitching of radar flying test location parameter based on measuring and controlling equipment
Rhee et al. Investigation of 1: 1,000 scale map generation by stereo plotting using UAV images
KR102426282B1 (en) 3d spatial object location correction method based on road linearity
KR101962388B1 (en) Method and System for Automatically Generating Satellite Image Map
CN114627252A (en) Unmanned aerial vehicle for obtaining surface temperature distribution and method for obtaining surface temperature distribution map