KR102557775B1 - Drone used 3d mapping method - Google Patents

Drone used 3d mapping method Download PDF

Info

Publication number
KR102557775B1
KR102557775B1 KR1020210072060A KR20210072060A KR102557775B1 KR 102557775 B1 KR102557775 B1 KR 102557775B1 KR 1020210072060 A KR1020210072060 A KR 1020210072060A KR 20210072060 A KR20210072060 A KR 20210072060A KR 102557775 B1 KR102557775 B1 KR 102557775B1
Authority
KR
South Korea
Prior art keywords
image data
drone
image
corrected
map
Prior art date
Application number
KR1020210072060A
Other languages
Korean (ko)
Other versions
KR20220163227A (en
Inventor
이재영
Original Assignee
이재영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이재영 filed Critical 이재영
Priority to KR1020210072060A priority Critical patent/KR102557775B1/en
Publication of KR20220163227A publication Critical patent/KR20220163227A/en
Application granted granted Critical
Publication of KR102557775B1 publication Critical patent/KR102557775B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

본 발명은 드론을 이용한 3차원 지도 제작 방법에 관한 것으로, 드론을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집하는 단계; 상기 지도제작영역이 촬영된 위성영상데이터를 수집하는 단계; 상기 드론영상데이터의 원근 왜곡을 보정하여 보정 드론영상데이터를 획득하는 단계; 상기 위성영상데이터의 그림자 왜곡을 보정하여 보정 위성영상데이터를 획득하는 단계; 상기 지도제작영역의 지상기준점을 기반으로 상기 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 상기 지도제작영역에 대한 영상 정합을 수행하는 단계; 및 상기 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작하는 단계; 를 포함함으로써, 영상 왜곡을 보정하여 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있다.The present invention relates to a method for producing a 3D map using a drone, comprising: collecting drone image data of a map production area captured using a drone; collecting satellite image data of the mapping area; Obtaining corrected drone image data by correcting perspective distortion of the drone image data; acquiring corrected satellite image data by correcting shadow distortion of the satellite image data; Performing image matching on the mapping area using the corrected drone image data and the corrected satellite image data based on the ground control point of the mapping area; and constructing an orthoimage through modeling of the matched image obtained through the image matching to produce a 3D map; By including the image distortion, it is possible to accurately represent the actual situation of a desired region and to effectively acquire 3D terrain information.

Description

드론을 이용한 3차원 지도 제작 방법{DRONE USED 3D MAPPING METHOD}3D map production method using drone {DRONE USED 3D MAPPING METHOD}

본 발명은, 드론을 이용한 3차원 지도 제작 방법에 관한 것으로, 구체적으로, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 드론영상데이터의 원근 왜곡과 위성영상데이터의 그림자 왜곡을 보정하며, 지상기준점을 기반으로 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 영상 왜곡을 보정하여 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있는 드론을 이용한 3차원 지도 제작 방법에 관한 것이다.The present invention relates to a method for producing a 3D map using a drone, and specifically, collects drone image data and satellite image data for a map production area, and corrects perspective distortion of the drone image data and shadow distortion of the satellite image data. After performing image matching for the map production area using corrected drone image data and corrected satellite image data based on the ground reference point, by constructing an ortho image through modeling of the matched image to create a 3D map, It relates to a 3D map production method using a drone capable of accurately representing the actual situation of a desired area by correcting distortion and effectively acquiring 3D terrain information.

잘 알려진 바와 같이, 무인항공기(UAV : unmanned aerial vehicle)는 조종사를 태우지 않고, 공기역학적 힘에 의해 부양하여 자율적으로 또는 원격조종으로 비행을 하며, 무기 또는 일반화물을 실을 수 있는 일회용 또는 재사용할 수 있는 동력 비행체로 정의될 수 있는데, 이러한 무인항공기 체계는 드론(drone)으로 지칭되기도 한다.As is well known, an unmanned aerial vehicle (UAV) is a single-use or reusable unmanned aerial vehicle (UAV) that flies autonomously or remotely controlled by aerodynamic force without a pilot, and can carry weapons or general cargo. It can be defined as a powered flight vehicle that can be used, and such an unmanned aerial vehicle system is also referred to as a drone.

상술한 바와 같은 드론 기술의 발달에 따라 드론을 이용한 다양한 기술들이 여러 형태로 연구 개발되고 있는데, 드론은 초기에 주로 군사용으로 개발되었지만, 점차 활용 분야가 확대되어 최근에는 시설물 관리, 해안 감시, 환경 감시, 대형 건축물 감시, 산불 감시, 산림 감시, 야간 무인 순찰, 무인 택배 서비스, 농약살포기, 범죄 색출, 범죄 추적, 작전 수행, 익스트림 스포츠 촬영, 지형 모델링, 구조물 모델링 등과 같은 다양한 용도로 사용되고 있으며 드라마, 예능, 관광지 촬영 등에도 사용되고 있다.With the development of drone technology as described above, various technologies using drones are being researched and developed in various forms. Drones were initially developed mainly for military purposes, but the fields of application have gradually expanded, and recently, facility management, coastal surveillance, and environmental monitoring It is used for various purposes such as surveillance of large buildings, surveillance of forest fires, surveillance of forests, unmanned night patrol, unmanned delivery service, pesticide sprayer, crime detection, criminal tracking, operation, extreme sports filming, terrain modeling, structure modeling, etc. , It is also used for photographing tourist attractions.

한편, 고해상도 위성영상이 촬영 및 제공되고, GIS(geographic information system) 기술의 비약적인 발달로 인하여 다양한 지형정보를 취득하여 이를 체계적으로 관리할 수 있는 여건이 조성되고 있다.On the other hand, high-resolution satellite images are being photographed and provided, and due to the rapid development of GIS (geographic information system) technology, conditions are being created to acquire various topographical information and systematically manage them.

특히, 인공위성 중 IKONOS, QuickBird, SPOT, KOMSAT 등과 같은 고중해상도 광학위성을 통한 지리정보 기반 데이터인 수치지형도 제작 및 영상지도 제작과 능동적 센서를 탑재한 RADARSAT을 이용한 도시지형정보 및 재해정보를 취득하여 도시관리, 각종 건설관리, 자원관리, 환경관리 등에 활용이 급증하고 있다.In particular, digital topographic map production and image map production, which are geographic information-based data through high-medium-resolution optical satellites such as IKONOS, QuickBird, SPOT, and KOMSAT among artificial satellites, and urban topographic information and disaster information obtained using RADARSAT equipped with an active sensor Management, various construction management, resource management, environmental management, etc. utilization is rapidly increasing.

또한, 지형공간정보자료를 GIS와 연계시켜 다양한 용도의 정보체계를 구축하는 것이 필요하게 되었고, 중저해상도의 위성영상자료를 이용하여 취득된 각종 정보와 고해상 영상자료와의 통합 및 다중센서 자료들의 통합은 영상정보의 활용성을 다양화시키기 위한 다양한 연구 및 발명이 진행되고 있다.In addition, it has become necessary to establish an information system for various purposes by linking geospatial information data with GIS, and integration of various information obtained using medium and low resolution satellite image data with high resolution image data and integration of multi-sensor data In order to diversify the utilization of image information, various researches and inventions are being conducted.

상술한 바와 같은 드론을 이용하여 촬영된 드론촬영역상과, 위성영상자료 등을 활용하여 원하는 지역의 실제 상황을 정확하게 표현하는 수치정사영상과 3차원 지도의 제작을 위한 다양한 기법들이 연구 개발되고 있는 실정이다.As described above, various techniques are being researched and developed for the production of digital orthographic images and 3D maps that accurately express the actual situation of the desired area by using inverted images taken by drones and satellite image data, etc. am.

1. 한국공개특허공보 제10-2011-0082903호(2011-07.20.공개)1. Korean Patent Publication No. 10-2011-0082903 (published on July 20, 2011)

본 발명은, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 드론영상데이터의 원근 왜곡과 위성영상데이터의 그림자 왜곡을 보정하며, 지상기준점을 기반으로 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 영상 왜곡을 보정하여 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있는 드론을 이용한 3차원 지도 제작 방법의 제공을 일 목적으로 한다.The present invention collects drone image data and satellite image data for the map production area, corrects perspective distortion of drone image data and shadow distortion of satellite image data, and corrects drone image data and corrected satellite image based on ground control points. After performing image matching for the map production area using data, by constructing an ortho image through modeling of the matching image to produce a 3D map, it is possible to correct image distortion to accurately represent the actual situation of the desired region. The purpose of this study is to provide a method for producing a 3D map using a drone that can effectively acquire 3D terrain information.

본 발명의 실시예들의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Objects of the embodiments of the present invention are not limited to the above-mentioned purposes, and other objects not mentioned above will be clearly understood by those skilled in the art from the description below. .

본 발명의 실시예에 따르면, 드론을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집하는 단계; 상기 지도제작영역이 촬영된 위성영상데이터를 수집하는 단계; 상기 드론영상데이터의 원근 왜곡을 보정하여 보정 드론영상데이터를 획득하는 단계; 상기 위성영상데이터의 그림자 왜곡을 보정하여 보정 위성영상데이터를 획득하는 단계; 상기 지도제작영역의 지상기준점을 기반으로 상기 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 상기 지도제작영역에 대한 영상 정합을 수행하는 단계; 및 상기 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작하는 단계;를 포함하는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.According to an embodiment of the present invention, collecting drone image data in which a map production area is photographed using a drone; collecting satellite image data of the mapping area; Obtaining corrected drone image data by correcting perspective distortion of the drone image data; acquiring corrected satellite image data by correcting shadow distortion of the satellite image data; Performing image matching on the mapping area using the corrected drone image data and the corrected satellite image data based on the ground control point of the mapping area; and constructing an orthoimage through modeling of the matched image obtained through the image matching to produce a 3D map; a method for producing a 3D map using a drone may be provided.

또한, 본 발명의 실시예에 따르면, 상기 보정 드론영상데이터를 획득하는 단계는, 상기 드론영상데이터의 깊이정보를 이용하여 상기 원근 왜곡을 보정하는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, in the step of obtaining the corrected drone image data, a 3D map production method using a drone for correcting the perspective distortion using depth information of the drone image data may be provided. .

또한, 본 발명의 실시예에 따르면, 상기 보정 위성영상데이터를 획득하는 단계는, 상기 그림자 왜곡의 보정을 위한 그림자샘플을 생성하고, 상기 생성된 그림자샘플을 이용하여 보정대상범위를 선정한 후에, 상기 보정대상범위에 대한 화소정보에 따라 그림자왜곡보정영상을 생성하는 방식으로 수행되는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, in the step of obtaining the correction satellite image data, after generating a shadow sample for correcting the shadow distortion and selecting a correction target range using the generated shadow sample, the A method of producing a 3D map using a drone performed in a manner of generating a shadow distortion correction image according to pixel information on a target range of correction may be provided.

또한, 본 발명의 실시예에 따르면, 상기 영상 정합을 수행하는 단계는, 상기 보정 드론영상데이터에서 상기 지상기준점에 대응하는 제 1 지상기준점을 검출하고, 상기 보정 위성영상데이터에서 상기 지상기준점에 대응하는 제 2 지상기준점을 검출한 후에, 상기 제 1 지상기준점 및 제 2 지상기준점을 이용하여 상기 영상 정합을 수행하는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, the performing of the image matching may include detecting a first ground reference point corresponding to the ground reference point from the corrected drone image data and corresponding to the ground reference point from the corrected satellite image data. After detecting the second ground control point, a 3D map production method using a drone that performs the image registration using the first ground control point and the second ground control point may be provided.

또한, 본 발명의 실시예에 따르면, 상기 3차원 지도를 제작하는 단계는, 상기 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링되는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, in the step of producing the 3D map, a 3D map production method using a drone in which the matched image is modeled in a point cloud form or a mesh form may be provided.

또한, 본 발명의 실시예에 따르면, 상기 3차원 지도를 제작하는 단계는, 상기 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링되는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, in the step of producing the 3D map, when the point cloud is modeled, a digital surface model (DSM), a digital elevation model (DEM), and A method of producing a 3D map using a drone modeled using at least one selected from digital terrain models (DTMs) may be provided.

또한, 본 발명의 실시예에 따르면, 상기 3차원 지도를 제작하는 단계는, 모델링된 상기 정합영상을 영상 좌표에 따라 재배열하여 상기 정사영상을 구축하는 드론을 이용한 3차원 지도 제작 방법이 제공될 수 있다.In addition, according to an embodiment of the present invention, in the step of producing the 3D map, a 3D map production method using a drone for constructing the orthoimage by rearranging the modeled matched image according to image coordinates is provided. can

본 발명은 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 드론영상데이터의 원근 왜곡과 위성영상데이터의 그림자 왜곡을 보정하며, 지상기준점을 기반으로 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 영상 왜곡을 보정하여 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있다.The present invention collects drone image data and satellite image data for the map production area, corrects perspective distortion of drone image data and shadow distortion of satellite image data, and corrects drone image data and corrected satellite image data based on ground control points. After performing image registration for the map production area using , by constructing an ortho image through modeling of the registration image to produce a 3D map, it is possible to correct image distortion to accurately represent the actual situation of the desired region, as well as 3D terrain information can be obtained effectively.

도 1은 본 발명의 실시예에 따라 드론을 이용하여 3차원 지도를 제작하는 과정을 나타낸 플로우차트이고,
도 2는 본 발명의 실시예에 따른 드론을 이용한 3차원 지도 제작 시스템을 예시한 도면이며,
도 3 내지 도 5는 본 발명의 실시예에 따라 드론영상데이터의 원근 왜곡을 보정하는 것을 설명하기 위한 도면이고,
도 6은 본 발명의 실시예에 따라 위성영상데이터의 그림자 왜곡을 보정하는 것을 설명하기 위한 도면이며,
도 7 내지 도 9는 본 발명의 실시예에 따라 영상 정합을 수행하는 것을 설명하기 위한 도면이고,
도 10은 본 발명의 실시예에 따라 수치표면모델을 이용한 모델링을 예시한 도면이며,
도 11은 본 발명의 실시예에 따라 구축되는 정사영상을 예시한 도면이다.
1 is a flowchart showing a process of producing a 3D map using a drone according to an embodiment of the present invention;
2 is a diagram illustrating a 3D map production system using a drone according to an embodiment of the present invention;
3 to 5 are views for explaining the correction of perspective distortion of drone image data according to an embodiment of the present invention;
6 is a diagram for explaining correction of shadow distortion of satellite image data according to an embodiment of the present invention;
7 to 9 are diagrams for explaining image matching according to an embodiment of the present invention;
10 is a diagram illustrating modeling using a numerical surface model according to an embodiment of the present invention;
11 is a diagram illustrating an orthoimage constructed according to an embodiment of the present invention.

본 발명의 실시예들에 대한 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and characteristics of the embodiments of the present invention, and methods for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the embodiment of the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definition should be made based on the contents throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따라 드론을 이용하여 3차원 지도를 제작하는 과정을 나타낸 플로우차트이고, 도 2는 본 발명의 실시예에 따른 드론을 이용한 3차원 지도 제작 시스템을 예시한 도면이며, 도 3 내지 도 5는 본 발명의 실시예에 따라 드론영상데이터의 원근 왜곡을 보정하는 것을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에 따라 위성영상데이터의 그림자 왜곡을 보정하는 것을 설명하기 위한 도면이며, 도 7 내지 도 9는 본 발명의 실시예에 따라 영상 정합을 수행하는 것을 설명하기 위한 도면이고, 도 10은 본 발명의 실시예에 따라 수치표면모델을 이용한 모델링을 예시한 도면이며, 도 11은 본 발명의 실시예에 따라 구축되는 정사영상을 예시한 도면이다.1 is a flowchart illustrating a process of producing a 3D map using a drone according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a 3D map production system using a drone according to an embodiment of the present invention. 3 to 5 are diagrams for explaining correction of perspective distortion of drone image data according to an embodiment of the present invention, and FIG. 6 illustrates correction of shadow distortion of satellite image data according to an embodiment of the present invention. 7 to 9 are diagrams for explaining image matching according to an embodiment of the present invention, and FIG. 10 illustrates modeling using a numerical surface model according to an embodiment of the present invention. FIG. 11 is a diagram illustrating an orthoimage constructed according to an embodiment of the present invention.

도 1 내지 도 11을 참조하면, 드론(10)을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집할 수 있다(단계110).Referring to FIGS. 1 to 11 , it is possible to collect drone image data of a map production area captured using a drone 10 (step 110).

이러한 드론영상데이터를 수집하는 단계(110)에서는 지도제작영역에서 측량된 지상기준점의 좌표에 따라 드론(10)을 비행시켜 수집할 수 있다.In the step 110 of collecting such drone image data, the drone 10 may be flown and collected according to the coordinates of the ground reference points surveyed in the map production area.

예를 들면, 드론(10)은 드론 본체에 비행수단, 촬영수단, 무선통신모듈, GPS수신기, 압력센서, 자이로센서 등을 포함하여 무선 제어에 따라 원하는 지역에 무인으로 비행하고, 그 지역을 촬영하여 드론영상데이터를 무선으로 지도제작을 위한 지도제작장치(30)로 전송할 수 있다. 이러한 지도제작장치(30)는 드론(10)의 무선제어를 수행하는 제어센터에 구비되거나, 혹은 그 제어센터를 포함하여 구비될 수 있다.For example, the drone 10 includes a flying means, a photographing means, a wireless communication module, a GPS receiver, a pressure sensor, a gyro sensor, etc. in the main body of the drone, and flies unmanned to a desired area according to wireless control, and photographs the area. Thus, the drone image data can be wirelessly transmitted to the map production device 30 for map production. Such a mapping device 30 may be provided in a control center that performs wireless control of the drone 10 or may be included in the control center.

여기에서, 드론 본체에는 드론(10)의 작동 및 제어를 위한 다양한 구성부가 구비될 수 있는데, 추진모터, 프로펠러 등을 포함하는 비행수단을 이용하여 무인 비행하고자 하는 지역을 기 설정된 경로 또는 무선 제어된 경로에 따라 비행할 수 있고, 촬영수단을 이용하여 3차원 지도 제작 작업을 위한 드론영상데이터를 획득할 수 있다.Here, the drone main body may be provided with various components for operation and control of the drone 10. Using a flight means including a propulsion motor, a propeller, etc. It can fly according to the route, and it can acquire drone image data for 3D map production by using a photographing means.

그리고, 드론(10)은 무선통신모듈을 이용하여 제어센터로부터 송출되는 좌표 신호를 수신할 수 있고, GPS 수신기를 이용하여 위성영상수집장치(20)에 구비된 위성항법시스템(GPS)으로부터 GPS 신호를 수신할 수 있으며, 압력센서를 이용하여 드론 본체의 고도를 검출하기 위해 주변의 기압을 실시간 측정할 수 있고, 자이로센서를 이용하여 드론 본체의 상하 반전을 감지하기 위해 구비될 수 있다.In addition, the drone 10 may receive a coordinate signal transmitted from the control center using a wireless communication module, and use a GPS receiver to receive a GPS signal from a global navigation system (GPS) provided in the satellite image collection device 20. may be received, the air pressure around the drone may be measured in real time to detect the altitude of the drone body using a pressure sensor, and it may be provided to detect vertical inversion of the drone body using a gyro sensor.

여기에서, 드론(10)은 위치정보와 관련된 각종 위성정보를 위성영상수집장치(20)의 위성항법시스템(GPS : global positioning system) 및 관성항법시스템(INS : inertial navigation system)을 통해 획득할 수 있다.Here, the drone 10 may obtain various satellite information related to location information through a global positioning system (GPS) and an inertial navigation system (INS) of the satellite image collection device 20. there is.

상술한 바와 같은 구성을 갖는 드론(10)은 지도제작영역을 무인 비행하기 위해 지상기준점을 측량하여 지상기준점의 좌표를 획득하고, 지도제작영역에서 측량된 지상기준점의 좌표에 따라 비행경로를 결정하며, 결정된 비행경로에 따라 측량된 지상기준점의 좌표를 참조하여 드론(10)을 비행시켜 해당 영역을 촬영한 후, 촬영된 드론영상데이터를 수집할 수 있다.The drone 10 having the configuration as described above obtains the coordinates of the ground reference point by surveying the ground reference point in order to fly unmanned in the mapping area, determines the flight path according to the coordinates of the ground reference point surveyed in the mapping area, After flying the drone 10 with reference to the coordinates of the ground control point surveyed according to the determined flight path and photographing the area, the photographed drone image data may be collected.

다음에, 위성영상수집장치(20)에서는 지도제작영역이 촬영된 위성영상데이터를 수집할 수 있다(단계120).Next, the satellite image collection device 20 may collect satellite image data of the mapping area captured (step 120).

이러한 위성영상데이터를 수집하는 단계(120)에서는 위성영상수집장치(20)로서, 위성항법시스템(GPS) 및 관성항법시스템(INS)을 이용하여 수집할 수 있다.In the step 120 of collecting such satellite image data, as the satellite image collection device 20, it can be collected using a satellite navigation system (GPS) and an inertial navigation system (INS).

예를 들면, 위성영상수집장치(20)는 위성항법시스템(GPS) 및 관성항법시스템(INS)을 포함할 수 있는데, 위성항법시스템(GPS)은 적어도 24개 이상의 GPS 위성으로 이루어지며, GPS 위성들 각각의 고유 신호와 궤도 파라미터를 이용하여 각 GPS 위성의 정밀한 위치를 산출할 수 있고, 드론(10) 또는 지도제작장치(30)에 구비된 GPS 수신기를 이용하여 산출된 GPS 위성들의 각 위치정보와 삼변측량을 통해 드론(10) 또는 지도제작장치(30)의 정확한 위치를 산출할 수 있다.For example, the satellite image collection device 20 may include a satellite navigation system (GPS) and an inertial navigation system (INS). The satellite navigation system (GPS) is composed of at least 24 or more GPS satellites, and the GPS satellites The precise location of each GPS satellite can be calculated using each unique signal and trajectory parameter, and each location information of the GPS satellites calculated using the GPS receiver provided in the drone 10 or the map production device 30 The exact location of the drone 10 or the mapping device 30 may be calculated through trilateration and trilateration.

또한, 관성항법시스템(INS)은 관성센서 역할을 하는 자이로와 가속도계를 포함하여 드론(10)의 회전과 위치 이동을 계산 및 제어하여 원하는 위치로 비행하도록 도와주는 시스템으로, 위성항법시스템(GPS) 및 관성항법시스템(INS)을 통해 촬영된 고해상도 위성영상데이터를 수신 및 수집할 수 있다.In addition, the inertial navigation system (INS) is a system that helps the drone 10 fly to a desired location by calculating and controlling the rotation and positional movement of the drone 10, including a gyro and an accelerometer that serve as an inertial sensor. And it can receive and collect high-resolution satellite image data captured through the inertial navigation system (INS).

상술한 바와 같은 위성항법시스템(GPS) 및 관성항법시스템(INS)은 통합시스템으로 하여 위성영상수집장치(20)로 구축될 수 있다.The satellite navigation system (GPS) and the inertial navigation system (INS) as described above may be built into the satellite image collection device 20 as an integrated system.

상술한 바와 같이 위성항법시스템(GPS) 및 관성항법시스템(INS)을 포함하는 위성영상수집장치(20)에서 제공되는 각종 위성정보들은 드론(10) 및 지도제작장치(30)로 제공될 수 있다.As described above, various satellite information provided by the satellite image collection device 20 including the satellite navigation system (GPS) and the inertial navigation system (INS) can be provided to the drone 10 and the map production device 30. .

다음에, 지도제작장치(30)에서는 드론영상데이터의 원근 왜곡을 보정하여 보정 드론영상데이터를 획득할 수 있다(단계130).Next, the map production device 30 may acquire corrected drone image data by correcting the perspective distortion of the drone image data (step 130).

이러한 보정 드론영상데이터를 획득하는 단계(130)에서는 드론영상데이터의 깊이정보를 이용하여 원근 왜곡을 보정할 수 있는데, 드론영상데이터를 이용하여 깊이정보를 생성하고, 생성된 깊이정보를 이용하여 각 화소의 좌표위치를 획득하며, 각각의 화소에서 주변의 화소의 위치정보를 통해 국소적 법선벡터를 계산한 후에, 이를 기반으로 평면의 법선벡터를 계산하고, 계산된 평면의 법선벡터를 통해 회전변환에 사용할 회전축과 회전각도를 계산하고, 각각의 화소에 대한 회전변환을 수행하여 매핑위치를 획득하는 방식으로 원근 왜곡을 보정할 수 있다.In step 130 of acquiring such corrected drone image data, perspective distortion can be corrected using the depth information of the drone image data. The coordinate position of the pixel is obtained, and after calculating the local normal vector through the position information of the neighboring pixels in each pixel, the normal vector of the plane is calculated based on this, and the rotation is converted through the normal vector of the calculated plane. Perspective distortion can be corrected by calculating a rotation axis and rotation angle to be used for , and performing rotation conversion on each pixel to obtain a mapping position.

예를 들면, 드론영상데이터는 스테레오 영상데이터를 포함할 수 있고, 이 스테레오 영상을 평행 시각 스테레오 모델로 하여 변이정보를 획득한 후에, 변이정보를 이용하여 영상의 깊이정보를 생성할 수 있다.For example, the drone image data may include stereo image data, and after obtaining disparity information using the stereo image as a parallel vision stereo model, depth information of the image may be generated using the disparity information.

여기에서, 변이정보를 이용하여 변이영상을 생성할 수 있는데, 카메라의 시각오차를 보상하는 영상보정과, 좌측영상 및 우측영상의 화소별 정합점을 찾는 스테레오정합을 포함하는 전처리를 수행한 후에, 좌측영상 및 우측영상의 수평변이에 의한 화소별 대응점의 거리를 영상으로 표현할 수 있는데, 이 변이영상은 영역기반 스테레오 정합 알고리즘 중 에피폴라선 상에 있는 대응점의 이웃화소의 합의 차를 계산하여 최소화되는 화소와 정합점을 검출하는 방식으로 생성할 수 있다.Here, a disparity image can be generated using the disparity information. After preprocessing including image correction to compensate for the camera's visual error and stereo matching to find matching points for each pixel of the left and right images, The distance of the corresponding point for each pixel by the horizontal displacement of the left image and the right image can be expressed as an image. It can be created by detecting pixels and matching points.

상술한 바와 같이 생성된 깊이정보를 각 화소의 카메라 좌표계 내에서의 좌표위치를 획득할 수 있는데, 깊이정보는 영상에서의 화소의 위치와 그 화소에서의 깊이값을 포함할 수 있고, 영상의 원근 왜곡 보정을 위해 깊이정보와 카메라인자를 이용하여 카메라초점을 원점으로 하여 카메라의 정면 광학축 방향을 Z축으로 하는 카메라 좌표계로 변환할 수 있다.The coordinate position of each pixel in the camera coordinate system can be obtained from the depth information generated as described above. For distortion correction, the camera coordinate system can be converted into a camera coordinate system in which the front optical axis of the camera is the Z-axis, with the camera focus as the origin, using the depth information and the camera factor.

여기에서, 깊이정보는 카메라 좌표계 내에서 Z축의 거리가 되며, 영상 좌표계 내에서의 좌표를 영상 중앙이 되는 좌표계 상의 위치정보로 변환될 수 있는데, 도 3은 촬영영상 (a)에서 원점을 중앙으로 하는 좌표계 (b)로 영상의 좌표를 변환하는 것을 나타낸다.Here, the depth information becomes the distance of the Z axis in the camera coordinate system, and the coordinates in the image coordinate system can be converted into positional information on the coordinate system that becomes the center of the image. It shows that the coordinates of the image are converted to the coordinate system (b).

그리고, 카메라의 시야각과 해상도를 이용하여 영상이 투영되는 뷰포트까지의 거리(f)를 다음의 수학식 1 또는 수학식 2를 이용하여 산출할 수 있다.In addition, the distance f to the viewport where the image is projected can be calculated using the following Equation 1 or Equation 2 using the viewing angle and resolution of the camera.

이 때, 수학식 1은 카메라의 수직시야각 fovv와 카메라의 수직해상도 h를 통해 f를 산출하는 것이고, 수학식 2는 카메라의 수평시야각 fovh와 카메라의 수직해상도 w를 통해 f를 산출하는 것으로, 두 식의 계산결과는 동일하다.At this time, Equation 1 calculates f through the vertical viewing angle fov v of the camera and the vertical resolution h of the camera, and Equation 2 calculates f through the horizontal viewing angle fov h of the camera and the vertical resolution w of the camera. , the calculation results of the two equations are the same.

상술한 바와 같이 산출된 거리(f)를 적용하여 도 4에 도시한 바와 같이 핀홀 카메라 모델에 적용하여 유도되는 아래의 수학식 3을 통해 카메라 좌표계에서의 위치(Pc(x,y)=(xc,yc,zc))변환할 수 있다.The position in the camera coordinate system (P c (x, y) = ( x c ,y c ,z c )) can be converted.

이러한 과정을 통해 도 3의 (c)에 도시한 바와 같은 카메라 좌표계에서의 위치정보를 획득할 수 있다.Through this process, positional information in the camera coordinate system as shown in (c) of FIG. 3 can be obtained.

다음에, 평면 영상을 이루고 있는 각각의 화소에서 한 화소의 주변 화소를 통해 그 화소에 속한 평면에 대해 국소적인 법선벡터를 구할 수 있는데, 도 5에 도시한 바와 같이 P(x,y)에서의 주변 화소간의 공간적인 관계는 카메라 좌표계를 이용하여 나타낼 수 있다.Next, in each pixel constituting a plane image, a local normal vector for a plane belonging to a pixel can be obtained through pixels surrounding one pixel. As shown in FIG. 5, in P(x,y) A spatial relationship between neighboring pixels may be expressed using a camera coordinate system.

예를 들면, 영상 좌표계에서의 위치 P(x,y)에 대응하는 카메라 좌표계에서의 위치를 Pc(x,y)라고 할 경우, 화소의 상하에 위치한 점들의 카메라 좌표계에서의 위치정보 Pc(x,y+1), Pc(x,y-1)와 좌우에 우치한 점들의 카메라 좌표계에서의 위치정보 Pc(x+1,y), Pc(x-1,y)를 이용하여 다음의 수학식 4와 같이 두 개의 베터를 생성할 수 있다.For example, if the position in the camera coordinate system corresponding to the position P(x,y) in the image coordinate system is P c (x, y), the position information P c of the points located above and below the pixel in the camera coordinate system (x,y+1), P c (x,y-1) and the positional information P c (x+1,y), P c (x-1,y) in the camera coordinate system of the points on the left and right Using Equation 4, two bets can be generated.

이 후, 두 벡터의 외적으로 생성된 벡터는 그 두 벡터와 수직이라는 것을 이용하여 다음의 수학식 5를 통해 두 벡터의 외적을 구하여 화소 P(x,y)에서의 국소적인 법선벡터 Nxy를 구할 수 있다.Then, using the fact that the vector generated as the cross product of the two vectors is perpendicular to the two vectors, the cross product of the two vectors is obtained through the following Equation 5 to obtain the local normal vector N xy at the pixel P(x,y). can be saved

상술한 바와 같이 구해진 각 화소의 국소적 법선벡터를 합산할 경우 평면영역에서의 법선벡터 N을 구할 수 있고, 스테레오영상을 회전변환을 통해 평면영역의 법선벡터를 Z축에 평행하게 하면, 평면영상은 xy평면에 평행한 영상으로 보정되어 원근 왜곡을 제거할 수 있다. 이 때, 회전변환을 수행한 평면 법선벡터의 단위벡터는 N'(0.0,1)이 된다.When the local normal vectors of each pixel obtained as described above are summed up, the normal vector N in the plane area can be obtained, and if the normal vector in the plane area is parallel to the Z axis through the rotation transformation of the stereo image, the plane image can be corrected with an image parallel to the xy plane to remove perspective distortion. At this time, the unit vector of the plane normal vector subjected to the rotation conversion becomes N'(0.0,1).

그리고, 법선벡터가 N인 평면으로부터 법선벡터가 N'인 평면으로 회전변화는 하는 회전변환행렬 R은 회전축이 되는 단위벡터 u와 회전각 θ를 구하여 다음의 수학식 6을 통해 구할 수 있다.In addition, the rotation conversion matrix R, which rotates from the plane with the normal vector N to the plane with the normal vector N', can be obtained through the following Equation 6 by obtaining the unit vector u serving as the rotation axis and the rotation angle θ.

이 때, 회전변화의 축이 되는 단위벡터 u는 두 법선벡터의 외적을 통해 두 법선벡터가 이루는 평면과 수직이 되는 정규벡터를 다음의 수학식 7과 같이 산출할 수 있고, 회전각 θ는 두 법선벡터가 이루는 사이각을 다음의 수학식 8과 같이 산출한 것을 이용할 수 있다.At this time, the unit vector u, which is the axis of rotation change, can calculate a regular vector perpendicular to the plane formed by the two normal vectors through the cross product of the two normal vectors as shown in Equation 7 below, and the rotation angle θ is two The angle between the normal vectors may be calculated as in Equation 8 below.

상술한 바와 같은 변환행렬을 통해 각 화소의 카메라좌표계에서의 위치 Pc(i,j)를 다음의 수학식 9를 통해 회전변환을 수행할 경우 회전변환 후의 위치 P'c(i,j)=(x'c, y'c, z'c)를 산출할 수 있다.When the position P c (i, j) of each pixel in the camera coordinate system is rotated through the conversion matrix as described above through the following Equation 9, the position after rotation conversion P' c (i, j) = (x' c , y' c , z' c ) can be calculated.

이 때, P'은 카메라 좌표계 상의 좌표이므로 이를 영상처리에 이용하기 위해서 다시 영상 좌표계로 변환해주어야 하며, 다음의 수학식 10을 통해 원점이 화면 중심에 존재하는 영상 좌표계에서의 위치 P'v(x'v, y'v)로 변환한 후에, 원점을 다시 원래대로 설정하여 보정 변환 시 화소 P(x,y)에 대응되는 화소 P'(x',y')를 구할 수 있다.At this time, since P' is a coordinate on the camera coordinate system, it must be converted back to the image coordinate system to use it for image processing. After converting to ' v , y' v ), the origin can be set back to the original point to obtain the pixel P'(x',y') corresponding to the pixel P(x,y) during correction conversion.

상술한 바와 같이 드론영상데이터를 이용하여 깊이정보를 생성하고, 생성된 깊이정보를 이용하여 각 화소의 좌표위치를 획득하며, 각각의 화소에서 주변의 화소의 위치정보를 통해 국소적 법선벡터를 계산한 후에, 이를 기반으로 평면의 법선벡터를 계산하고, 계산된 평면의 법선벡터를 통해 회전변환에 사용할 회전축과 회전각도를 계산하고, 각각의 화소에 대한 회전변환을 수행하여 매핑위치를 획득(예를 들어, 회전변환을 통해 카메라 좌표계의 위치 획득, 영상 좌표계로의 변환, 원접 보정 등) 하는 방식으로 원근 왜곡을 보정할 수 있다.As described above, the depth information is generated using the drone image data, the coordinate position of each pixel is obtained using the generated depth information, and the local normal vector is calculated from the position information of the neighboring pixels in each pixel. After that, calculate the normal vector of the plane based on this, calculate the rotation axis and rotation angle to be used for rotation conversion through the calculated normal vector of the plane, and obtain the mapping position by performing rotation conversion for each pixel (eg For example, perspective distortion can be corrected by way of acquisition of the position of the camera coordinate system through rotation transformation, conversion to the image coordinate system, circular correction, etc.).

다음에, 지도제작장치(30)에서는 위성영상데이터의 그림자 왜곡을 보정하여 보정 위성영상데이터를 획득할 수 있다(단계140).Next, the map production apparatus 30 may acquire corrected satellite image data by correcting shadow distortion of the satellite image data (step 140).

이러한 보정 위성영상데이터를 획득하는 단계(140)에서는 그림자 왜곡의 보정을 위한 그림자샘플을 생성하고, 생성된 그림자샘플을 이용하여 보정대상범위를 선정한 후에, 보정대상범위에 대한 화소정보에 따라 그림자왜곡보정영상을 생성하는 방식으로 수행될 수 있다.In the step 140 of acquiring such correction satellite image data, a shadow sample for shadow distortion correction is created, a correction target range is selected using the generated shadow sample, and shadow distortion is performed according to pixel information for the correction target range. It may be performed in a manner of generating a correction image.

첫째, 그림자샘플을 생성하는 것은, 그림자를 통해 왜곡된 정보를 갖는 도로영역(S1영역)과 그림자 영향을 받지 않은 도로영역(S2영역)에 속하는 화소들을 추출하여 각각 생성되었는데, 영역확장(region growing) 기법을 이용하여 그림자샘플을 생성하기 위해 분광거리(spectral distance)를 선정(예를 들면, 임의의 분광거리로부터 생성된 각각의 그림자샘플 결과를 비교하여 수행함)하였고, 결정된 최적의 분광거리를 사용하여 보정대상이 되는 그림자샘플1과 기준대상이 되는 그림자샘플2를 포함하는 각 그림자샘플을 생성할 수 있다.First, the generation of shadow samples was generated by extracting pixels belonging to the road area (S1 area) with distorted information through shadow and the road area (S2 area) not affected by shadow, respectively. ) method, the spectral distance was selected (for example, by comparing the results of each shadow sample generated from an arbitrary spectral distance) to create a shadow sample, and the determined optimal spectral distance was used. By doing so, each shadow sample including shadow sample 1 as a correction target and shadow sample 2 as a reference target can be created.

예를 들면, 영역확장 기법을 이용하여 그림자 영역을 대상으로 보정대상 그림자샘플1을 생성하고, 그림자 영향을 받지 않은 영역을 대상으로 기준대상 그림자샘플2를 생성할 수 있다. 여기에서, 각 샘플들은 보정대상 화소들에 대해 대표성을 갖는 화소의 군집을 추출하여 생성될 수 있다.For example, a shadow sample 1 to be corrected may be generated for a shadow area using a region expansion technique, and a shadow sample 2 to be referenced may be generated for an area unaffected by shadows. Here, each sample may be generated by extracting a cluster of pixels representing pixels to be corrected.

상술한 바와 같은 영역확장 기법은 기 설정된 씨앗화소(seed pixel)와 분광거리를 기반으로 그림자샘플을 생성할 수 있는데, 도로상에 발생한 건물의 그림자임이 분명한 화소(즉, S1영역 화소)와 그림자가 생기지 않은 도로임이 분명한 화소(즉, S2영역 화소)를 영상판독을 통해 S1영역과 S2영역의 샘플 생성에 필요한 씨앗화소로 각각 선정할 수 있다.The area expansion technique as described above can generate a shadow sample based on a preset seed pixel and a spectral distance. It is possible to select pixels (ie, pixels in the S2 region) that are clearly undeveloped roads as seed pixels necessary for generating samples of the S1 region and the S2 region through image reading.

그리고, 분광거리의 경우 씨앗화소의 화소값 영향하에서 군집을 이룬 화소들로 샘플이 생성되어야 하기 때문에, 분광거리에 따른 표본의 특성을 고려하여 최종 분광거리값을 선정할 수 있고, 이를 위해 임의의 수치를 분광거리값으로 사용하여 생성된 샘플들을 비교한 후에, 씨앗화소의 영향으로 생성된 샘플들 중에서 최종샘플을 선정할 수 있다. 여기에서, 임의의 수치는 10의 간격으로 20에서 120까지의 11단계의 값이며, 이는 S1영역의 그림자샘플1을 생성하는 경우와 S2영역의 그림자샘플2를 생성하는 경우 모두 동일하게 적용할 수 있다.In addition, in the case of the spectral distance, since the sample must be created with clustered pixels under the influence of the pixel value of the seed pixel, the final spectral distance value can be selected in consideration of the characteristics of the sample according to the spectral distance. After comparing the generated samples using the numerical value as the spectral distance value, a final sample can be selected from among the samples generated under the influence of the seed pixel. Here, the random number is a value of 11 steps from 20 to 120 at intervals of 10, which can be equally applied to both the case of generating shadow sample 1 in the S1 area and the case of creating the shadow sample 2 in the S2 area. there is.

둘째, 보정대상범위를 선정하는 것은, 그림자샘플1의 화소값 범위에 속하는 모든 화소는 보정대상으로 고려되지만, 그 왜곡정도에 따라 상이한 수준으로 보정할 수 있는데, S1영역의 그림자샘플1과 S2영역의 그림자샘플2를 분석하여 그림자샘플1의 화소값 범위를 제 1 보정수준, 제 2 보정수준 및 제 3 보정수준으로 구분하여 보정대상범위를 선정할 수 있다.Second, in selecting the range to be corrected, all pixels belonging to the pixel value range of shadow sample 1 are considered as correction targets, but they can be corrected to different levels depending on the degree of distortion. Shadow sample 1 in S1 area and S2 area By analyzing the shadow sample 2 of , the pixel value range of the shadow sample 1 can be divided into a first correction level, a second correction level, and a third correction level to select a correction target range.

여기에서, 제 1 보정수준은 순수한 S1영역은 상대적으로 큰 왜곡을 받은 화소값 범위로 S1영역의 최소값에서 S2영역의 최소값까지의 범위에 속하는 화소들을 포함하고, 제 2 보정수준은 제 1 보정수준보다 상대적으로 낮은 왜곡을 받는 영역(즉, S1>S2)에 대응하여 S2영역의 최소값에서 S1영역과 S2영역의 샘플히스토그램이 교차하는 지점의 화소값까지의 범위에 속하는 화소들을 포함하며, 제 3 보정수준은 보정이 필요하지 않은 영역(즉, S1<S2)에 대응하여 S1영역과 S2영역의 샘플히스토그램이 교차하는 지점의 화소값에서부터 S1영역의 최대값까지의 범위에 속하는 화소들을 포함할 수 있다.Here, the first correction level is the pixel value range in which the pure S1 area is relatively greatly distorted, and includes pixels belonging to the range from the minimum value of the S1 area to the minimum value of the S2 area, and the second correction level is the first correction level. Corresponding to the region receiving relatively lower distortion (ie, S1>S2), it includes pixels belonging to the range from the minimum value of the region S2 to the pixel value at the point where the sample histograms of the region S1 and S2 intersect, and the third The correction level may include pixels belonging to the range from the pixel value at the point where the sample histograms of the S1 and S2 regions intersect to the maximum value of the S1 region corresponding to the region that does not require correction (ie, S1<S2). there is.

예를 들면, S1영역의 그림자샘플1과 S2영역의 그림자샘플2를 사용하여 전영상에 존재하는 보정대상 화소들의 값을 기준대상 화소들의 값과 유사해지도록 보정하는 연산을 수립할 수 있는데, S1영역의 그림자샘플1은 그림자로 인해 왜곡된 정보를 지닌 화소들을 포함하므로 왜곡되지 않은 S2영역의 그림자샘플2의 화소 범위에 포함되도록 변환될 수 있다. 즉, 그림자샘플1의 화소값을 그림자샘플2의 ㅗ하소값에 최대한 유사해지도록 변환할 수 있다.For example, it is possible to establish an operation for correcting the values of pixels to be corrected existing in the previous image to be similar to the values of pixels to be referenced using shadow sample 1 in the S1 area and shadow sample 2 in the S2 area. Since the shadow sample 1 of the area includes pixels with distorted information due to the shadow, it can be converted to be included in the pixel range of the undistorted shadow sample 2 of the area S2. That is, the pixel value of shadow sample 1 can be converted to be as similar as possible to the calcination value of shadow sample 2.

이러한 화소값 변환 과정을 제 1 보정수준, 제 2 보정수준 및 제 3 보정수준에 따라 수행할 수 있는데, 이는 그림자 영역의 화소일 경우에도 각각 받은 그림자효과의 정도는 서로 다를 수 있기 때문이다. 여기에서, 화소값 변환은 그림자샘플2의 평균화소값을 기준으로 수행될 수 있다.This pixel value conversion process can be performed according to the first correction level, the second correction level, and the third correction level, because the degree of each received shadow effect can be different even in the case of pixels in the shadow area. Here, pixel value conversion may be performed based on the average pixel value of shadow sample 2.

그리고, 보정대상으로 추출된 화소들은 도 6에 도시한 바와 같이 세영역으로 구분되어 보정될 수 있는데, ①은 S2영역과 전혀 중복되지 않아 S1영역에만 속하는 것으로 판단되는 화소값들의 범위로서, S2영역의 평균화소값을 기준으로 큰 왜곡을 받은 지역이므로 상대적으로 큰 폭의 수치로 보정되어야 하는 영역이고, ②는 S1영역과 S2영역의 화소값이 중첩되는 범위로서, S1영역의 비율이 S2영역의 비율보다 상대적으로 더 큰 영역으로, ①보다 S2영역의 평균화소값에 더 가까이 위치하기 때문에 작은 폭의 수치만으로도 S2영역의 평균화소값을 향한 보정이 가능하며, ③은 S1영역에 속할 수도 있는 화소이지만 S2영역에 속하는 화소일 확률이 더 크기 때문에 화소값을 S2영역의 평균화소값 중심으로 이동시키지 않아도 전체 보정 결과에 큰 영향을 미치지 않기 때문에, 수치변환을 하지 않고 본래의 값을 유지시킬 수 있다.In addition, the pixels extracted as correction targets can be divided into three areas and corrected as shown in FIG. 6. ① is the range of pixel values that do not overlap with the S2 area at all and are determined to belong to the S1 area. Since it is an area that has undergone a large distortion based on the average pixel value of , it is an area that needs to be corrected with a relatively large numerical value, and ② is the range where the pixel values of the S1 and S2 areas overlap. It is an area relatively larger than the ratio, and since it is located closer to the average pixel value of the S2 area than ①, correction toward the average pixel value of the S2 area is possible with only a small width value, and ③ is a pixel that may belong to the S1 area. However, since the probability of being a pixel belonging to the S2 region is greater, even if the pixel value is not moved to the center of the average pixel value of the S2 region, the overall correction result is not greatly affected, so the original value can be maintained without numerical conversion. .

한편, S1영역의 그림자샘플1과 S2영역의 그림자샘플2는 그림자 왜곡을 보정하는 보정모델을 구축하기 위한 기초변수들(즉, 도 6에서 각 영역을 구분하는 지표가 되는 지점의 값으로, S1영역의 최소값, S2영역의 최소값, S1영역과 S2영역의 교차값, S1영역의 최대값 등을 포함함)에 대한 정보를 제공할 수 있으며, 이로부터 S1영역의 화소값 보정수준을 결정할 수 있다.On the other hand, shadow sample 1 of the S1 area and shadow sample 2 of the S2 area are basic variables for building a correction model for correcting shadow distortion (ie, the value of a point that is an index for dividing each area in FIG. 6, S1 (including the minimum value of the area, the minimum value of the S2 area, the intersection value of the S1 area and the S2 area, the maximum value of the S1 area, etc.) .

셋째, 그림자왜곡보정영상을 생성하는 것은, S1영역에 속하는 화소값들은 S2영역의 평균화소값을 중심으로 하는 범위 내로 최대한 이동시키는 수치적 변환을 수행할 수 있는데, 그림자샘플에서 추출한 S1영역의 최소값과, S2영역의 최소값과, 두 그룹이 교차하는 지점의 화소값들을 입력함으로써 그림자 왜곡이 보정된 영상(즉, 보정 위성영상데이터)을 제공할 수 있다.Third, generating a shadow distortion correction image can perform a numerical conversion to move the pixel values belonging to the S1 region to the maximum within the range centered on the average pixel value of the S2 region, and the minimum value of the S1 region extracted from the shadow sample. It is possible to provide an image in which shadow distortion is corrected (ie, corrected satellite image data) by inputting the minimum value of the region S2 and the pixel values of the point where the two groups intersect.

예를 들면, 보정 대상 화소들은 제 1 보정수준, 제 2 보정수준 및 제 3 보정수준에 각각 대응하는 보정 과정을 수행할 수 있는데, 각 보정 수준의 화소값 범위는 S1영역의 그림자샘플1과 S2영역의 그림자샘플2에서 추출한 수치를 참조하여 결정될 수 있다.For example, pixels to be corrected may perform correction processes corresponding to the first correction level, the second correction level, and the third correction level, respectively. It can be determined by referring to the value extracted from shadow sample 2 of the area.

이러한 보정영상은 S1영역의 최소값, S2영역의 최소값, S1영역과 S2영역의 교차값, S1영역의 최대값 등을 포함하는 기초변수들의 입력과 이들의 연산을 통해 수치변환을 수행할 수 있는데, 예를 들면, SML(spatial model language) 등을 이용하여 보정연산을 수행할 수 있다.This correction image can be converted numerically through input of basic variables including the minimum value of the S1 region, the minimum value of the S2 region, the intersection value of the S1 region and the S2 region, and the maximum value of the S1 region, and their calculation. For example, the correction operation may be performed using a spatial model language (SML) or the like.

여기에서, 보정연산은 도 6에 도시한 바와 같은 세영역(즉, ①, ②, ③)에 대해 개별적 및 순차적으로 수행될 수 있는데, S1영역의 비율이 S2영역의 비율보다 상대적으로 큰 ②영역을 먼저 수행하고, 순수한 S1영역으로 구성된 ①영역에 적용할 수 있다. 그 이유는 보정 ①영역의 화소값이 ②영역의 화소값보다 상대적으로 작기 때문에, ①영역의 화소값을 먼저 변환할 경우 보정 ②영역에 다시 포함되어 동일화소에 대한 중복변환이 발생하기 때문이다. 이 때, ③영역은 원래의 값을 유지할 수 있다.Here, the correction operation can be performed individually and sequentially for the three regions (ie, ①, ②, ③) as shown in FIG. 6, where the ratio of the S1 region is relatively greater than that of the S2 region. can be performed first and applied to the area ① composed of pure S1 areas. The reason is that since the pixel values of the correction area ① are relatively smaller than the pixel values of the ② area, if the pixel values of the ① area are converted first, they are included again in the correction area ② and redundant conversion occurs for the same pixel. At this time, the area ③ can maintain its original value.

상술한 바와 같은 과정을 통해 그림자 왜곡의 보정을 위한 그림자샘플을 생성하고, 생성된 그림자샘플을 이용하여 보정대상범위를 선정한 후에, 보정대상범위에 대한 화소정보에 따라 그림자왜곡보정영상(즉, 보정 위성영상데이터)을 생성할 수 있다.After creating a shadow sample for shadow distortion correction through the above-described process and selecting a correction target range using the generated shadow sample, a shadow distortion correction image (i.e., correction) according to pixel information for the correction target range satellite image data) can be created.

다음에, 지도제작장치(30)에서는 지도제작영역의 지상기준점을 기반으로 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행할 수 있다(단계150).Next, the map production device 30 may perform image registration for the map production area using the corrected drone image data and the corrected satellite image data based on the ground control point of the map production area (step 150).

이러한 영상 정합을 수행하는 단계(150)에서는 보정 드론영상데이터에서 지상기준점에 대응하는 제 1 지상기준점을 검출하고, 보정 위성영상데이터에서 지상기준점에 대응하는 제 2 지상기준점을 검출한 후에, 제 1 지상기준점 및 제 2 지상기준점을 이용하여 영상 정합을 수행할 수 있으며, 제 1 지상기준점 및 제 2 지상기준점이 각각 이미지 크기를 이용하여 검출될 수 있다.In step 150 of performing such image matching, a first ground reference point corresponding to the ground control point is detected from the corrected drone image data, and a second ground control point corresponding to the ground control point is detected from the corrected satellite image data. Image matching can be performed using the ground control point and the second ground control point, and the first ground control point and the second ground control point can be detected using the image size, respectively.

예를 들면, 제 1 지상기준점과 제 2 지상기준점을 각각 검출하여 보정 드론영상데이터와 보정 위성영상데이터를 영상 정합하기 위해 SIFT(scale invariant feature transform)를 이용할 수 있는데, 보정 드론영상데이터에서 이미지 크기에 따라 제 1 지상기준점을 검출하고, 보정 위성영상데이터에서 이미지 크기에 따라 제 2 지상기준점을 검출한 후, 제 1 지상기준점과 제 2 지상기준점을 식별하기 위한 제 1 서술벡터와 제 2 서술벡터를 각각 생성하며, 생성된 제 1 서술벡터와 제 2 서술벡터의 유사성을 측정하여 영상 정합을 수행할 수 있다.For example, SIFT (scale invariant feature transform) can be used to image the corrected drone image data and the corrected satellite image data by detecting the first ground control point and the second ground control point, respectively. After detecting the first ground control point according to , and detecting the second ground control point according to the image size in the corrected satellite image data, the first description vector and the second description vector are used to identify the first ground control point and the second ground control point. are generated, respectively, and image matching may be performed by measuring the similarity between the generated first narration vector and the second narration vector.

여기에서, 제 1 지상기준점과 제 2 지상기준점은 지도제작영역에서 측량된 지상기준점을 고려하여 지정 및 검출될 수 있다.Here, the first ground control point and the second ground control point may be designated and detected in consideration of the ground control point surveyed in the mapping area.

구체적으로 설명하면, 드론촬영이미지(즉, 보정 드론영상데이터)에 대응하는 복수의 가우시안 이미지와 복수의 가우시안이미지의 차연산이미지를 이용하되, 이미지 크기를 고려하여 제 1 지상기준점을 검출할 수 있는데, 도 7에 도시한 바와 같이 드론영상이미지에 대해 일정한 배수의 가우시안 필터가 적용된 복수의 가우시안이미지를 획득하고, 획득된 복수의 가우시안이미지에서 인접하는 이미지 각각의 차연산을 수행하여 복수의 차연산이미지를 획득할 수 있다.Specifically, a plurality of Gaussian images corresponding to a drone-captured image (i.e., corrected drone image data) and a difference operation image of the plurality of Gaussian images are used, but the first ground reference point can be detected in consideration of the image size. , As shown in FIG. 7, a plurality of Gaussian images to which a Gaussian filter of a constant multiple is applied to the drone video image is obtained, and a plurality of difference operation images are obtained by performing difference operation of each adjacent image in the obtained plurality of Gaussian images. can be obtained.

그리고, 도 8에 도시한 바와 같이 획득된 복수의 차연산이미지에서 제 1 지상기준점을 찾기 위해 현이미지에서 특정 점(X)에 대한 주변 8픽셀의 점과 양측 인접이미지에서 9픽셀의 점(즉, 18개 점)을 비교하고, 특정 점을 기준으로 총 26개 필셀의 점들에 대해 비교한 결과에 따라 가장 작거나 혹은 가장 큰 값을 가지는 점이 선택되며, 이를 반복하여 극대점과 극소점을 검출할 수 있다.And, as shown in FIG. 8, in order to find the first ground reference point in the plurality of difference operation images obtained, a point of 8 pixels around a specific point (X) in the current image and a point of 9 pixels in adjacent images on both sides (that is, , 18 points), and according to the result of comparing the points of a total of 26 pixels based on the specific point, the point with the smallest or largest value is selected, and it is possible to detect the maximum and minimum points by repeating this. can

다음에, 검출결과에 따라 선택된 점들을 이미지 크기에 따라 후처리하여 가장 안정적인 점들이 선택되는 방식으로 제 1 지상기준점을 검출할 수 있다.Next, the points selected according to the detection result may be post-processed according to the size of the image, and the first ground control point may be detected in such a way that the most stable points are selected.

한편, 보정 위성영상데이터에서 제 2 지상기준점도 상술한 바와 같은 제 1 지상기준점의 검출 방식과 유사하게 검출될 수 있다.Meanwhile, in the corrected satellite image data, the second ground control point can also be detected similarly to the detection method of the first ground control point as described above.

다음에, 보정 드론영상데이터에서 검출된 제 1 지상기준점을 제 1 서술벡터로 서술하고, 보정 위성영상데이터에서 검출된 제 2 지상기준점을 제 2 서술벡터로 서술한 후에, 제 1 지상기준점과 제 2 지상기준점을 제 1 서술벡터와 제 2 서술벡터를 이용하여 매칭시켜 영상 정합을 수행할 수 있는데, 특정 점의 주변 픽셀에 대하여 이미지 그라디언트와 방향들을 획득할 수 있다.Next, the first ground control point detected from the corrected drone image data is described as a first description vector, and the second ground control point detected from the corrected satellite image data is described as a second description vector. Image matching can be performed by matching 2 ground control points using a first description vector and a second description vector, and image gradients and directions can be obtained for pixels around a specific point.

그리고, 방향에 대한 불변(rotate-invariant) 속성을 위해 서술자(keypoint descriptor)와 그라디언트 방향(image gradients)은 점 방향에 대하여 상대적으로 회전될 수 있고, 모든 레벨의 그라디언트들을 산출하여 도 9에 도시한 바와 같이 작은 화살표들로 표현될 수 있다.In addition, for the rotate-invariant property, the descriptor (keypoint descriptor) and the gradient direction (image gradients) can be rotated relative to the point direction, and gradients of all levels are calculated and shown in FIG. It can be represented by small arrows as shown.

여기에서, 서술자는 모든 방향 히스토그램 엔트리의 값들을 포함하는 벡터의 형태로 형성되며, 도 9에 도시한 바와 같은 오른쪽 각 화살표들의 길이들은 히스토그램 엔트리의 값들에 대응될 수 있다.Here, the descriptor is formed in the form of a vector including values of histogram entries in all directions, and the lengths of each right arrow as shown in FIG. 9 may correspond to the values of histogram entries.

상술한 바와 같이 도 7 및 도 8에 따른 제 1 지상기준점과 제 2 지상기준점의 검출과 도 9에 따른 제 1 지상기준점과 제 2 지상기준점의 서술이 완료된 후, 보정 드론영상데이터와 보정 위성영상데이터의 영상 정합을 수행할 수 있다.As described above, after the detection of the first ground control point and the second ground control point according to FIGS. 7 and 8 and the description of the first ground control point and the second ground control point according to FIG. 9 are completed, corrected drone image data and corrected satellite image Image registration of data can be performed.

예를 들면, 제 1 지상기준점과 제 2 지상기준점 간의 유사성 비교를 이용하여 영상 정합을 수행할 경우 보정 드론영상이미지의 제 1 지상기준점의 수가 N이고, 보정 위성영상데이터에서 추출된 제 2 지상기준점의 수가 M이라 한다면 총 N*M의 키포인트 간 정합이 발생할 수 있고, 이는 기존 픽셀 대 픽셀 비교에 의한 템플릿 정합 방법에 비하여 적은 수의 연산을 필요로 하는 장점이 있다.For example, when image matching is performed using similarity comparison between the first ground control point and the second ground control point, the number of first ground control points in the corrected drone video image is N, and the second ground control point extracted from the corrected satellite image data If the number of is M, a total of N*M keypoint matching can occur, which has the advantage of requiring fewer operations than the existing template matching method based on pixel-to-pixel comparison.

여기에서, 영상 정합 판정의 경우 도 9에 도시한 바와 같이 매칭 포인트인 하늘색 라인부분에 대하여 가우시안 모델로 가중치(Weight)를 부여하고, 최종 정합 판정 시에는 각 포인트들에 대하여 총 점수를 합산할 수 있다. 즉, 하늘색 라인 부분이 집중된 곳이 높은 점수를 획득함으로써, 영상 정합을 수행할 수 있다.Here, in the case of image matching determination, as shown in FIG. 9, weights are given with a Gaussian model for the light blue line part, which is the matching point, and the total score for each point can be summed in the final matching determination. there is. That is, image matching can be performed by obtaining a high score at a point where the sky blue line portion is concentrated.

다음에, 지도제작장치(30)에서는 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작할 수 있다(단계160).Next, in the mapping apparatus 30, a 3D map may be produced by constructing an orthoimage through modeling of the matched image obtained through image matching (step 160).

이러한 3차원 지도를 제작하는 단계(160)에서는 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링될 수 있는데, 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링될 수 있다.In the step 160 of producing such a 3D map, the matched image may be modeled in the form of a point cloud or mesh. In the case of modeling in the form of a point cloud, a digital surface model (DSM) or a digital elevation model (DEM) : It can be modeled using at least one selected from a digital elevation model) and a digital terrain model (DTM).

여기에서, 수치표면모델(DSM)은 수목, 건물 등의 인공지물을 모두 포함하는 지표면 정보로서, 항공 LiDAR(light detection and ranging) 시스템을 이용하여 변하는 표고(elevation)값으로 채워진 포인트 클라우드(point cloud)의 집합체를 도출할 수 있다. 여기에서, 건물 지붕, 수목 상부, 전력선 및 다른 형상 표고도 포함할 있다.Here, the digital surface model (DSM) is ground surface information including all artificial features such as trees and buildings, and is a point cloud filled with changing elevation values using an aviation LiDAR (light detection and ranging) system. ) can be derived. Here, you may also include building roofs, treetops, power lines, and other feature elevations.

그리고, 수치표고모델(DEM)은 수목 등과 같은 자연지물과 건물 등의 인공지물을 포함하지 않는 지표면 자료로서, 아무것도 안 덮인 지표면의 표면을 X, Y의 함수로 표현한 것으로, 지형을 일정한 크기의 격자로 나누어 표고갑을 격자형으로 표현한 래스터 방식(raster)과, 불규칙삼각망으로 나누어 지표면을 표현한 TIN(triangular irregular network) 방식이 있는데, 다리와 도로 같은 지표면이 아닌 점들을 제거하여 부드러운 수치표고모델을 획득할 수 있다.In addition, the digital elevation model (DEM) is ground surface data that does not include natural features such as trees and artificial features such as buildings. There is a raster method in which the elevation is divided into grids and a triangular irregular network (TIN) method in which the ground surface is expressed by dividing into irregular triangles. A smooth digital elevation model is obtained by removing non-surface points such as bridges and roads. can do.

한편, 수치지형모델(DTM)은 정당한 밀도로 분포하는 지점들의 위치 및 표고의 수치 정보로서, 아무것도 안 덮인 지표지형의 선형특징(linear features)을 포함하며, 스테레오 사진 측량을 통해 획득할 수 있고, 일정 간격의 점분포와 등고선으로부터 보간법을 통해 수치표고모델을 도출할 수 있다.On the other hand, a digital terrain model (DTM) is numerical information on the location and elevation of points distributed at a reasonable density, including linear features of the surface topography covered with nothing, and can be obtained through stereo photogrammetry, A digital elevation model can be derived from the point distribution and contour lines at regular intervals through interpolation.

또한, 3차원 지도를 제작하는 단계(160)에서는 모델링된 정합영상을 영상 좌표에 따라 재배열하여 정사영상을 구축할 수 있다.In addition, in step 160 of producing a 3D map, an orthoimage may be constructed by rearranging the modeled registered image according to image coordinates.

한편, 정합영상이 메시 형태로 모델링될 경우 정합영상의 이미지로부터 깊이 정보를 계산하고, 계산된 깊이 정보를 기초로 지도제작영역의 메시(mesh) 이미지를 형성할 수 있으며, 드론영상데이터를 기초로 생성된 텍스처를 영상좌표에 따라 재배열하여 지도제작영역의 메시 이미지에 매핑시키는 방식으로 정사영상을 구축할 수 있다.Meanwhile, when the matched image is modeled in a mesh form, depth information may be calculated from the image of the matched image, and a mesh image of the mapping area may be formed based on the calculated depth information. An ortho image can be constructed by rearranging the generated texture according to the image coordinates and mapping it to the mesh image of the mapping area.

따라서, 본 발명은 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 드론영상데이터의 원근 왜곡과 위성영상데이터의 그림자 왜곡을 보정하며, 지상기준점을 기반으로 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 영상 왜곡을 보정하여 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있다.Therefore, the present invention collects drone image data and satellite image data for the map production area, corrects perspective distortion of drone image data and shadow distortion of satellite image data, and corrects drone image data and correction satellite based on ground control points. After performing image registration for the map production area using image data, by constructing an ortho image through modeling of the matching image and producing a 3D map, image distortion can be corrected to accurately represent the actual situation of the desired region. In addition, 3D terrain information can be effectively obtained.

이상의 설명에서는 본 발명의 다양한 실시예들을 제시하여 설명하였으나 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함을 쉽게 알 수 있을 것이다.In the above description, various embodiments of the present invention have been presented and described, but the present invention is not necessarily limited thereto. It will be readily apparent that branch substitutions, modifications and alterations are possible.

10 : 드론
20 : 위성영상수집장치
30 : 지도제작장치
10 : Drone
20: satellite image collection device
30: map production device

Claims (7)

드론을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집하는 단계;
상기 지도제작영역이 촬영된 위성영상데이터를 수집하는 단계;
상기 드론영상데이터의 원근 왜곡을 보정하여 보정 드론영상데이터를 획득하는 단계;
상기 위성영상데이터의 그림자 왜곡을 보정하여 보정 위성영상데이터를 획득하는 단계;
상기 지도제작영역의 지상기준점을 기반으로 상기 보정 드론영상데이터 및 보정 위성영상데이터를 이용하여 상기 지도제작영역에 대한 영상 정합을 수행하는 단계; 및
상기 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작하는 단계;를 포함하며,
상기 보정 드론영상데이터를 획득하는 단계는, 상기 드론영상데이터의 깊이 정보를 이용하여 상기 원근 왜곡을 보정하되,
상기 드론영상데이터를 이용하여 상기 깊이정보를 생성하고, 생성된 깊이정보를 이용하여 각 화소의 좌표위치를 획득하며, 각각의 화소에서 주변의 화소의 위치정보를 통해 국소적 법선벡터를 계산한 후에, 상기 국소적 법선벡터를 기반으로 평면의 법선벡터를 계산하고, 상기 계산된 평면의 법선벡터를 통해 회전변환에 사용할 회전축과 회전각도를 계산하고, 상기 계산된 회전축 및 회전각도에 따라 각각의 화소에 대한 상기 회전변환을 수행하여 매핑위치를 획득하는 방식으로 상기 원근 왜곡을 보정하며,
상기 보정 위성영상데이터를 획득하는 단계는, 상기 그림자 왜곡의 보정을 위한 그림자샘플을 생성하고, 상기 생성된 그림자샘플을 이용하여 보정대상범위를 선정한 후에, 상기 보정대상범위에 대한 화소정보에 따라 그림자왜곡보정영상을 생성하는 방식으로 수행되되,
상기 그림자샘플은, 그림자를 통해 왜곡된 정보를 갖는 도로영역인 S1영역과 그림자 영향을 받지 않은 도로영역인 S2영역에 속하는 화소들을 추출하여 각각 생성하고,
상기 보정대상범위는, 상기 그림자샘플의 화소값 범위에 속하는 모든 화소를 보정대상으로 고려하되, 왜곡정도에 따라 상이한 수준으로 보정하도록 선정하며,
상기 그림자왜곡보정영상은, 상기 S1영역에 속하는 화소값들을 상기 S2영역의 평균화소값을 중심으로 하는 범위 내로 이동시키는 수치적 변환을 수행하여 생성하는
드론을 이용한 3차원 지도 제작 방법.
Collecting drone image data in which the map production area is photographed using a drone;
collecting satellite image data of the mapping area;
Obtaining corrected drone image data by correcting perspective distortion of the drone image data;
acquiring corrected satellite image data by correcting shadow distortion of the satellite image data;
Performing image matching on the mapping area using the corrected drone image data and the corrected satellite image data based on the ground control point of the mapping area; and
Including; constructing an orthoimage through modeling of the matched image obtained through the image matching to produce a 3D map;
In the obtaining of the corrected drone image data, the perspective distortion is corrected using depth information of the drone image data,
After generating the depth information using the drone image data, acquiring the coordinate position of each pixel using the generated depth information, and calculating a local normal vector through the position information of neighboring pixels in each pixel. , Calculate the normal vector of the plane based on the local normal vector, calculate the rotation axis and rotation angle to be used for rotation conversion through the calculated normal vector of the plane, and calculate each pixel according to the calculated rotation axis and rotation angle. The perspective distortion is corrected by performing the rotation conversion on , and obtaining a mapping position.
The step of acquiring the corrected satellite image data may include generating a shadow sample for correcting the shadow distortion, selecting a correction target range using the generated shadow sample, and then shadowing according to pixel information for the correction target range. It is performed in a way to generate a distortion correction image,
The shadow sample is generated by extracting pixels belonging to S1 region, which is a road region having information distorted through shadow, and S2 region, which is a road region that is not affected by shadow, respectively;
In the correction target range, all pixels belonging to the pixel value range of the shadow sample are considered as correction targets, but selected to be corrected to different levels according to the degree of distortion,
The shadow distortion correction image is generated by performing a numerical conversion of moving pixel values belonging to the S1 region within a range centered on the average pixel value of the S2 region.
A method for creating 3D maps using drones.
삭제delete 삭제delete 청구항 1에 있어서,
상기 영상 정합을 수행하는 단계는, 상기 보정 드론영상데이터에서 상기 지상기준점에 대응하는 제 1 지상기준점을 검출하고, 상기 보정 위성영상데이터에서 상기 지상기준점에 대응하는 제 2 지상기준점을 검출한 후에, 상기 제 1 지상기준점 및 제 2 지상기준점을 이용하여 상기 영상 정합을 수행하는 드론을 이용한 3차원 지도 제작 방법.
The method of claim 1,
In the performing of the image matching, after detecting a first ground control point corresponding to the ground control point from the corrected drone image data and detecting a second ground control point corresponding to the ground control point from the corrected satellite image data, A method for producing a 3D map using a drone to perform the image matching using the first ground control point and the second ground control point.
청구항 1 또는 청구항 4에 있어서,
상기 3차원 지도를 제작하는 단계는, 상기 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링되는 드론을 이용한 3차원 지도 제작 방법.
According to claim 1 or claim 4,
In the step of producing the 3D map, the 3D map production method using a drone in which the matching image is modeled in a point cloud form or mesh form.
청구항 5에 있어서,
상기 3차원 지도를 제작하는 단계는, 상기 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링되는 드론을 이용한 3차원 지도 제작 방법.
The method of claim 5,
The step of producing the 3D map is a digital surface model (DSM), a digital elevation model (DEM), and a digital terrain model (DTM) when the map is modeled in the form of a point cloud. A method for producing a 3D map using a drone modeled using at least one selected from the following.
청구항 6에 있어서,
상기 3차원 지도를 제작하는 단계는, 모델링된 상기 정합영상을 영상 좌표에 따라 재배열하여 상기 정사영상을 구축하는 드론을 이용한 3차원 지도 제작 방법.
The method of claim 6,
In the step of producing the 3D map, the 3D map production method using a drone builds the orthoimage by rearranging the modeled matching image according to image coordinates.
KR1020210072060A 2021-06-02 2021-06-02 Drone used 3d mapping method KR102557775B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210072060A KR102557775B1 (en) 2021-06-02 2021-06-02 Drone used 3d mapping method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072060A KR102557775B1 (en) 2021-06-02 2021-06-02 Drone used 3d mapping method

Publications (2)

Publication Number Publication Date
KR20220163227A KR20220163227A (en) 2022-12-09
KR102557775B1 true KR102557775B1 (en) 2023-07-19

Family

ID=84440292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072060A KR102557775B1 (en) 2021-06-02 2021-06-02 Drone used 3d mapping method

Country Status (1)

Country Link
KR (1) KR102557775B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020692A (en) 1998-07-02 2000-01-21 Nec Corp Shade removing method in high resolution satellite data and satellite data processor using the same
JP3380457B2 (en) * 1997-01-27 2003-02-24 株式会社エヌ・ティ・ティ・データ Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium
KR100437890B1 (en) * 2003-04-18 2004-06-30 (주)충청측량설계공사 Three dimensional map producing device and method
KR101737438B1 (en) * 2016-07-18 2017-05-18 한국항공우주연구원 Method and Apparatus for Constructing Reference Layer, Method and System for Constructing 3D GIS Data using Reference Layer
KR101798405B1 (en) 2017-05-23 2017-11-16 주식회사 환경과학기술 Automatic System and Method for Bathymetry Derived from Satellite Imagery
KR102239562B1 (en) 2019-12-10 2021-04-13 주식회사 스트리스 Fusion system between airborne and terrestrial observation data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110082903A (en) 2010-01-12 2011-07-20 (주) 충청에스엔지 Method of compensating and generating orthoimage for aerial-photo
KR102195168B1 (en) * 2017-11-21 2020-12-24 한국전자통신연구원 3d reconstruction terrain matching method of and apparatus thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3380457B2 (en) * 1997-01-27 2003-02-24 株式会社エヌ・ティ・ティ・データ Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium
JP2000020692A (en) 1998-07-02 2000-01-21 Nec Corp Shade removing method in high resolution satellite data and satellite data processor using the same
KR100437890B1 (en) * 2003-04-18 2004-06-30 (주)충청측량설계공사 Three dimensional map producing device and method
KR101737438B1 (en) * 2016-07-18 2017-05-18 한국항공우주연구원 Method and Apparatus for Constructing Reference Layer, Method and System for Constructing 3D GIS Data using Reference Layer
KR101798405B1 (en) 2017-05-23 2017-11-16 주식회사 환경과학기술 Automatic System and Method for Bathymetry Derived from Satellite Imagery
KR102239562B1 (en) 2019-12-10 2021-04-13 주식회사 스트리스 Fusion system between airborne and terrestrial observation data

Also Published As

Publication number Publication date
KR20220163227A (en) 2022-12-09

Similar Documents

Publication Publication Date Title
KR102001728B1 (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
CN107194989B (en) Traffic accident scene three-dimensional reconstruction system and method based on unmanned aerial vehicle aircraft aerial photography
KR102007567B1 (en) Stereo drone and method and system for calculating earth volume in non-control points using the same
KR101793509B1 (en) Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
KR20180131932A (en) River topography information generation method using drone and geospatial information
Ahmad et al. Digital aerial imagery of unmanned aerial vehicle for various applications
KR102195179B1 (en) Orthophoto building methods using aerial photographs
Zulkipli et al. Multirotor UAV-based photogrammetric mapping for road design
US11922572B2 (en) Method for 3D reconstruction from satellite imagery
JP2017201261A (en) Shape information generating system
KR102567800B1 (en) Drone used 3d mapping method
Cilek et al. Generation of high-resolution 3-D maps for landscape planning and design using UAV technologies
KR102525519B1 (en) Drone used 3d mapping method
MOKRANE et al. DEM generation based on UAV photogrammetry
KR102488553B1 (en) Drone used 3d mapping method
Starek et al. Application of unmanned aircraft systems for coastal mapping and resiliency
KR102587445B1 (en) 3d mapping method with time series information using drone
KR102557775B1 (en) Drone used 3d mapping method
Chaudhry et al. A comparative study of modern UAV platform for topographic mapping
KR102567799B1 (en) Drone used 3d mapping method
JP2017174032A (en) Traffic obstacle estimation system
Mora-Félix et al. The use of RPAS for the development of land surface models for natural resources management: a review
Kang et al. Improving 3D mesh quality using multi-directional UAV images
Che Mat et al. Surf Zone Mapping Using Multirotor Unmanned Aerial Vehicle Imagery
Ngadiman et al. Production of Orthophoto Map Using Unmanned Aerial Vehicles Photogrammetry

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant