KR20230140832A - UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus - Google Patents

UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus Download PDF

Info

Publication number
KR20230140832A
KR20230140832A KR1020220039573A KR20220039573A KR20230140832A KR 20230140832 A KR20230140832 A KR 20230140832A KR 1020220039573 A KR1020220039573 A KR 1020220039573A KR 20220039573 A KR20220039573 A KR 20220039573A KR 20230140832 A KR20230140832 A KR 20230140832A
Authority
KR
South Korea
Prior art keywords
images
image
variables
land cover
accuracy
Prior art date
Application number
KR1020220039573A
Other languages
Korean (ko)
Inventor
박경훈
이흥규
송봉근
변지혜
김성현
박건웅
이수아
이호인
Original Assignee
창원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 창원대학교 산학협력단 filed Critical 창원대학교 산학협력단
Priority to KR1020220039573A priority Critical patent/KR20230140832A/en
Publication of KR20230140832A publication Critical patent/KR20230140832A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

드론 및 인공지능을 활용한 도시 공간정보 매핑 방법 및 장치가 제시된다. 본 발명에서 제안하는 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법은 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계, 상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계 및 상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계를 포함한다. A method and device for mapping urban spatial information using drones and artificial intelligence are presented. The urban spatial information mapping method using drones and artificial intelligence proposed in the present invention includes the steps of producing a multispectral image, a vegetation index image, and a terrain image through a sensor of an unmanned aerial vehicle, the produced multispectral image, a vegetation index image, and It includes the step of confirming images and variables for random forest-based land cover classification using terrain images, and the step of verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the identified images and variables.

Description

드론 및 인공지능을 활용한 도시 공간정보 매핑 방법 및 장치{UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus}Urban spatial information mapping method and apparatus using drones and artificial intelligence {UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus}

본 발명은 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법 및 장치에 관한 것이다. The present invention relates to a method and device for mapping urban spatial information using drones and artificial intelligence.

토지피복도는 지표면의 물리적인 상태를 일정한 분류체계에 따라 지도로 제작한 자료로 지역의 현황을 파악하는 기초자료이다. 도시차원에서는 토지적성, 환경성 평가, 도시재생 등 도시계획의 과학적 근거로 사용되고 있고, 학술적으로는 열환경 분석, 공기흐름 시뮬레이션, 생태계 조사 등 다양한 연구기초자료로 사용되고 있다. 대한민국은 정부에서 예산확보에 따라 1년에서 10년주기로 대한민국 전국의 토지피복도를 갱신하고 있다. 하지만 위성영상과 디지털 항공영상을 이용하여 취득한 자료를 분석하는 과정에서 갱신주기와 피복자료의 불일치 문제가 있으며, 최소 분류 기준을 설정하여 2500 m2 이하의 경우 주변 분류항목에 포함하고 있기 때문에 중, 소규모 지역을 대상으로는 정밀도가 떨어지는 한계점이 있어 생산성과 정확도가 높은 토지피복 구축 방안이 필요하다. A land cover map is a map of the physical state of the land surface according to a certain classification system and is basic data for understanding the current status of a region. At the city level, it is used as a scientific basis for urban planning such as land suitability, environmental evaluation, and urban regeneration. At the academic level, it is used as basic research data for various purposes such as thermal environment analysis, air flow simulation, and ecosystem investigation. In Korea, the government is updating the land cover map across the country every 1 to 10 years depending on budget security. However, in the process of analyzing data acquired using satellite images and digital aerial images, there is a problem of inconsistency in the update cycle and cover data, and a minimum classification standard is set to include areas under 2500 m 2 in the surrounding classification items. There are limitations in terms of low precision for small areas, so a land cover construction plan with high productivity and accuracy is needed.

최근 UAV와 탑재 센서 기술의 발전에 따라 분광학적 정확성 및 위치 정확성이 증가하였고, 원격탐사 및 항공측량 등 정확성이 요구되는 분야에서 활용되고 있다. 그리고 VHR(Very High Resolution) RGB 센서에 4 밴드(band) 다중분광 센서가 합쳐지거나 4 밴드 다중분광 센서에 열적외 센서가 합쳐지는 등 일반 RGB 카메라 외에도 다중분광, 열적외 등이 한 센서에 부착이 가능한 UAV 등장으로 다양한 영상을 한 번의 비행을 통해 획득할 수 있다. 또한, UAV 영상은 위성과 항공영상에 비해 시, 공간적 제약이 적으면서 고해상도 영상 취득이 용이한 특징이 있다. Recently, with the development of UAV and on-board sensor technology, spectroscopic accuracy and positioning accuracy have increased, and it is being used in fields that require accuracy such as remote sensing and aerial surveying. In addition, in addition to the general RGB camera, multispectral and thermal infrared sensors can be attached to one sensor, such as combining a VHR (Very High Resolution) RGB sensor with a 4-band multispectral sensor or a 4-band multispectral sensor with a thermal infrared sensor. With the possible emergence of UAVs, various images can be acquired through a single flight. In addition, UAV images have fewer temporal and spatial constraints compared to satellite and aerial images and have the advantage of being easy to acquire high-resolution images.

최근 종래기술에서는 높은 공간해상도의 UAV 이미지를 사용하여 특정 지역의 토지피복을 분류하고 분석하고 있다. 그러나 고해상도 이미지 영상은 동일한 물체에 대해서 분광 값의 변동성이 높은 특징을 가지고 있다. 이는 이미지의 공간 해상도가 높을수록 하나의 물체를 표현하기 위해 수 많은 픽셀이 필요해지며, 픽셀 값은 물체와 연관된 이미지 구조와 배경 정보를 가지고 있기 때문이다. 따라서 고해상도 UAV 영상은 픽셀 기반 이미지 분석 방법을 사용할 경우 획득한 이미지의 픽셀 수가 수천만 개 이상인 경우가 많기 때문에 분광 값의 변동성으로 인해 정확도가 크게 떨어질 수 있다. In recent prior art, high spatial resolution UAV images are used to classify and analyze land cover in a specific area. However, high-resolution images have the characteristic of high variability in spectral values for the same object. This is because the higher the spatial resolution of an image, the more pixels are needed to express one object, and the pixel value contains the image structure and background information associated with the object. Therefore, when pixel-based image analysis methods are used for high-resolution UAV images, the accuracy of the acquired images may be significantly reduced due to the variability of spectral values because the number of pixels in the acquired images is often tens of millions or more.

최근에는 객체 기반 이미지 분석이 분광 값의 변동성을 제어할 수 있는 새로운 패러다임으로 부상하고 있으며, 영상의 분광 정보만을 이용하는 픽셀 기반 접근법을 대체하고 있다. 객체 기반 이미지 분석은 동종 및 연속된 화소를 그룹화하고, 영상분류를 수행하기 위한 객체를 생성하여 분류하기 때문에 각 픽셀을 별도로 분류하는 픽셀 기반 접근법과 다르다. 따라서, 이러한 객체 기반 접근법은 빈공간, 그림자, 질감 등에 의해 발생하는 분광 값의 변동성을 감소시킬 수 있다. 또한, 축적, 형태, 질감과 같은 정보를 종합적으로 고려가 가능하며, 영상자료 이외의 벡터자료와 같은 다양한 지리정보를 통합 및 활용하여 분류 정확도를 향상시킬 수 있다는 장점이 있다. Recently, object-based image analysis has emerged as a new paradigm that can control the variability of spectral values, replacing pixel-based approaches that only use spectral information in images. Object-based image analysis is different from pixel-based approaches that classify each pixel separately because it groups homogeneous and consecutive pixels and creates and classifies objects to perform image classification. Therefore, this object-based approach can reduce the variability of spectral values caused by empty space, shadows, textures, etc. In addition, it is possible to comprehensively consider information such as accumulation, shape, and texture, and has the advantage of improving classification accuracy by integrating and utilizing various geographic information such as vector data other than image data.

이러한 객체 기반 이미지 분석을 활용하여 많은 연구자들이 다양한 원격 감지 및 기계 학습 방법과 함께 중, 소규모 지역의 토지피복을 매핑하기 위해 UAV에서 수집한 데이터를 활용하고 있다. Using object-based image analysis, many researchers are using data collected from UAVs to map land cover in small and medium-sized areas, along with various remote sensing and machine learning methods.

종래기술에서는 고정된 윙(fixed-wing) UAV를 활용하여 4 밴드의 다중분광 영상을 취득하고, 5개 항목(banana land, bare land, building, other vegetation, water)에 대하여 95%의 정확도를 달성하였다. In the prior art, a fixed-wing UAV was used to acquire 4-band multispectral images and achieve 95% accuracy for 5 items (banana land, bare land, building, other vegetation, and water). did.

또 다른 종래기술에서는 RGB 및 NIR 카메라를 회전 윙(rotary-wing) UAV에 장착하여 200 m x 100 m 범위의 하천 지역을 촬영하여 토지피복을 매핑하였으며, 4개 항목(grass, water, trees, road)에 대하여 78%의 정확도를 달성하였다. In another prior art, RGB and NIR cameras were mounted on a rotary-wing UAV to photograph a river area in the area of 200 m x 100 m to map land cover, and four items (grass, water, trees, road) An accuracy of 78% was achieved.

또 다른 종래기술에서는 UAV 기반 RGB 영상을 활용해서 주거지역을 대상으로 7개(building, grass, road, trees, water, soil, shadow) 항목을 설정하여 객체 기반 이미지 분석에 사용할 수 있는 이미지 필터를 비교하였다. 이와 같이 선행연구에서는 다양한 목적으로 특정 객체를 분류하거나 탐지하기 위해 객체기반 영상분석을 활용하고 있다. In another conventional technology, UAV-based RGB images are used to set 7 items (building, grass, road, trees, water, soil, shadow) for residential areas and compare image filters that can be used for object-based image analysis. did. In this way, previous research uses object-based image analysis to classify or detect specific objects for various purposes.

또 다른 종래기술에서는 UAV 기반 RGB 센서를 활용하여 옥수수의 수확량을 예측하기 위한 UAV 플랫폼을 구성하였다. 다양한 지역을 대상으로 환경 분야에서 UAV 이용을 위한 연구가 진행되고 있으나, 도시 환경 분석에 필요한 토지피복 분류 분야의 활용은 미비한 실정이다. In another prior art, a UAV platform was constructed to predict corn yield using a UAV-based RGB sensor. Research on the use of UAVs in the environmental field is being conducted in various regions, but the use of land cover classification required for urban environment analysis is insufficient.

[1] USGS,https://www.usgs.gov/landsat-missions/landsat-soil-adjusted-vegetation-index (archived on 22th December 2021)[1] USGS, https://www.usgs.gov/landsat-missions/landsat-soil-adjusted-vegetation-index (archived on 22th December 2021) [2] Kindu, M.; Schneider, T.; Teketay, D.; Knoke, T. Land Use/Land Cover Change Analysis Using Object-Based Classification Approach in Munessa-Shashemene Landscape of the Ethiopian Highlands. Remote Sens. 2013, 5, 2411-2435. https://doi.org/10.3390/rs5052411[2] Kindu, M.; Schneider, T.; Teketay, D.; Knoke, T. Land Use/Land Cover Change Analysis Using Object-Based Classification Approach in Munessa-Shashemene Landscape of the Ethiopian Highlands. Remote Sens. 2013, 5, 2411-2435. https://doi.org/10.3390/rs5052411 [3] Dronova, I.; Gong, P.; Wang, L. Object-based analysis and change detection of major wetland cover types and their classification uncertainty during the low water period at Poyang Lake, China. Remote Sens. Environ 2011, 115, 3220-3236. https://doi.org/10.1016/j.rse.2011.07.006[3] Dronova, I.; Gong, P.; Wang, L. Object-based analysis and change detection of major wetland cover types and their classification uncertainty during the low water period at Poyang Lake, China. Remote Sens. Environ 2011, 115, 3220-3236. https://doi.org/10.1016/j.rse.2011.07.006 [4] Zhou, W.; Troy, A. An object-oriented approach for analysing and characterizing urban landscape at the parcel level. Int. J. Remote Sens. 2008, 29, 3119-3135. https://doi.org/10.1080/01431160701469065[4] Zhou, W.; Troy, A. An object-oriented approach for analyzing and characterizing urban landscape at the parcel level. Int. J.Remote Sens. 2008, 29, 3119-3135. https://doi.org/10.1080/01431160701469065 [5] 42. Qian, Y.; Zhou, W.; Yan, J.; Li, W.; Han, L. Comparing Machine Learning Classifiers for Object-Based Land Cover Classification Using Very High Resolution Imagery. Remote Sens. 2015, 7, 153-168. https://doi.org/10.3390/rs70100153[5] 42. Qian, Y.; Zhou, W.; Yan, J.; Li, W.; Han, L. Comparing Machine Learning Classifiers for Object-Based Land Cover Classification Using Very High Resolution Imagery. Remote Sens. 2015, 7, 153-168. https://doi.org/10.3390/rs70100153 [6] Breiman, L. Random forests. Mach. Learn. 2001, 45, 5-32. https://doi.org/10.1023/A:1010933404324 [6] Breiman, L. Random forests. Mach. Learn. 2001, 45, 5-32. https://doi.org/10.1023/A:1010933404324

본 발명이 이루고자 하는 기술적 과제는 도시지역에서 UAV로 취득된 고해상도 영상을 기반으로 차도, 인도, 가로수, 가로녹지를 포함하는 토지피복도를 제작하는데 효과적인 영상을 확인하고, 토지피복도를 제작함으로써 자료의 활용성을 높이기 위한 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법 및 장치를 제공하는데 있다.The technical task to be achieved by the present invention is to identify images that are effective in producing a land cover map including driveways, sidewalks, street trees, and street green space based on high-resolution images acquired by UAV in urban areas, and to utilize the data by producing a land cover map. The goal is to provide urban spatial information mapping methods and devices using drones and artificial intelligence to improve performance.

일 측면에 있어서, 본 발명에서 제안하는 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법은 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계, 상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계 및 상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계를 포함한다. In one aspect, the urban spatial information mapping method using a drone and artificial intelligence proposed in the present invention includes producing a multispectral image, a vegetation index image, and a terrain image through a sensor of an unmanned aerial vehicle, and the produced multispectral image. , Confirming images and variables for random forest-based land cover classification using vegetation index images and terrain images, and verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the identified images and variables. Includes steps.

상기 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계는 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(Near Infrared band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature)를 포함하는 정사영상을 제작한다. The step of producing a multispectral image, vegetation index image, and terrain image through the sensor of the unmanned aerial vehicle is red, green, blue, red edge, and NIR band (Near Infrared band). It produces orthoimages including DSM (Digital Surface Model), DEM (Digital Elevation model), and LST (Land Surface Temperature).

본 발명의 실시예에 따른 다중분광 영상을 이용하여 레드(Red) 및 NIR((Near Infrared) 파장 대역을 사용하고, 식생에 관한 지표인 NDVI(Normalized Difference Vegetation Index) 및 식물 피복이 미리 정해진 기준보다 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하기 위해 사용하는 지표인 SAVI(Soil Adjusted Vegetation Index)를 산출하며, 상기 SAVI는 토지피복 유형을 수용하기 위한 토양 밝기 보정 계수를 정의하고, 레드(Red)와 NIR 값 사이의 비율로 계산하고, DSM(Digital Surface Model)에서 지물을 제외한 지면의 높이 값을 나타내는 DEM(Digital Elevation Model)과의 차연산을 통해, 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작한다. Using multispectral images according to an embodiment of the present invention, red and near infrared (NIR) wavelength bands are used, and NDVI (Normalized Difference Vegetation Index) and plant cover, which are indicators of vegetation, are higher than predetermined standards. Calculates the Soil Adjusted Vegetation Index (SAVI), an indicator used to correct NDVI for the effect of soil brightness in low-lying areas, where SAVI defines a soil brightness correction factor to accommodate land cover types, and Red ) and NIR values, and through difference calculation with DEM (Digital Elevation Model), which represents the height value of the ground excluding features in DSM (Digital Surface Model), it represents only the elevation value of features excluding the ground. Produce a normalized digital surface model (nDSM).

본 발명의 실시예에 따른 제작된 모든 영상은 다중분광 영상을 기준으로 리샘플링(resampling)되고, 제작된 모든 영상의 레이어들을 선형 밴드로 동일하게 리스케일링(rescaling)되며, All images produced according to an embodiment of the present invention are resampled based on the multispectral image, and the layers of all produced images are equally rescaled into linear bands,

상기 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서 잠재적인 이상 값의 영향을 감소시키고, 동일한 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로써 공통된 값 범위로 정규화하며, 영상 분할을 진행하기 위한 하나의 래스터 이미지의 입력 데이터를 생성하기 위해 제작된 모든 영상을 병합하는 레이어 스택(layer stack) 프로세스를 진행한다. In the step of identifying images and variables for land cover classification, the impact of potential outliers is reduced, the relative size of numerical data is removed to reflect the same importance, normalized to a common value range, and image segmentation is performed. A layer stack process is performed to merge all produced images to generate input data for a single raster image.

상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계는 분광 특성의 유사도에 따라 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 각 객체를 생성하는 영상 분할을 통해 객체 기반 가중치 설정에 따라 객체 형태 및 크기를 변경하고, 인접 객체의 픽셀 그룹에 따라 평균 픽셀 값을 계산하여, 각 객체에 포함되어야 하는 픽셀을 결정하며, 분광 디테일(Spectral detail), 공간 디테일(Spatial detail) 및 최소 분할 사이즈(minium segment size)를 조정하여 객체 기반 가중치 설정함으로써 각 객체 생성을 조정한다. The step of confirming images and variables for random forest-based land cover classification using the produced multispectral images, vegetation index images, and topographic images is performed by using raster data with specific shape characteristics according to the similarity of spectral characteristics. Through image segmentation that creates each object by grouping individual pixels, the object shape and size are changed according to object-based weight settings, and the average pixel value is calculated according to the pixel group of adjacent objects to determine the pixels that should be included in each object. Determine the creation of each object by setting object-based weights by adjusting spectral detail, spatial detail, and minimum segment size.

상기 영상 분할을 통해 생성된 각 객체에 할당된 복수의 통계 값들을 이용하여 복수의 변수를 생성하고, 상기 복수의 변수의 중요도에 따라 복수의 변수를 최적화하는 랜덤 포레스트(Random forest) 기반 토지피복 분류를 수행함으로써 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water)을 포함하는 분류 항목으로 토지피복을 분류한다. Random forest-based land cover classification that generates a plurality of variables using a plurality of statistical values assigned to each object created through the image segmentation and optimizes the plurality of variables according to the importance of the plurality of variables. By performing, building, car road, sidewalk, forest, grass, street tree, street grass, bare soil, water ( Land cover is classified into categories that include water.

상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계는 객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통해 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정한다. The step of verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the confirmed images and variables is the producer accuracy (confusion matrix), which calculates accuracy by organizing the classification results of object items and actual items into a matrix. Producer's accuracy, user's accuracy, and overall acuuracy are calculated respectively.

본 발명의 실시예들에 따르면 도시 환경 연구 분야에 필요한 토지피복도 제작을 위해 UAV 취득 영상들의 중요도를 평가하고, 이를 사용한 중, 소규모 지역 토지피복 분류에 대한 활용성을 고찰한다. 이를 위해 드론 센서를 통해 제작이 가능한 다중분광 영상, 식생지수 영상, 지형 영상을 제작하고, 객체 기반 영상 분석(Object-based Image Analysis; OBIA)과 랜덤 포레스트(random forest)를 활용하여 도시지역 토지피복 분류에 효과적인 영상 및 변수를 확인하였다. 또한, 영상 및 변수 축소를 통해 토지피복을 분류하고, 정확도 비교, 검증을 통해 UAV 영상의 토지피복도 분류에 대한 활용성을 고찰한다. According to embodiments of the present invention, the importance of UAV acquired images is evaluated to produce land cover maps needed in the field of urban environmental research, and the usability of using them for land cover classification in medium and small areas is considered. To this end, we produce multispectral images, vegetation index images, and topographic images that can be produced using drone sensors, and use object-based image analysis (OBIA) and random forest to analyze land cover in urban areas. Images and variables effective for classification were identified. In addition, land cover is classified through image and variable reduction, and the usability of UAV images for land cover classification is examined through accuracy comparison and verification.

도 1은 본 발명의 일 실시예에 따른 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 드론 및 인공지능을 활용한 도시 공간정보 매핑 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 객체 기반 도시 공간정보 맵을 도출하기 위해 구현된 데이터 수집, 전처리, 세분화, 분류 및 검증 단계에 대한 프로세스를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 대상지를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 분류 정확도 검증을 위한 임의의 포인트 위치를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 UAV 영상 제작 결과 이다.
도 7은 본 발명의 일 실시예에 따른 따른 영상 분할 결과 이다.
도 8은 본 발명의 일 실시예에 따른 토지피복에 따른 훈련 데이터 특성을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 126개 변수 중 40위까지의 변수 중요도를 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 대상지 전체 RF 모델 적용 결과를 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 대상지 내 인도의 보도블록 종류 예시를 나타내는 도면이다.
Figure 1 is a flowchart illustrating a method for mapping urban spatial information using drones and artificial intelligence according to an embodiment of the present invention.
Figure 2 is a diagram showing the configuration of an urban spatial information mapping device using a drone and artificial intelligence according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating the process of data collection, preprocessing, segmentation, classification, and verification steps implemented to derive an object-based urban spatial information map according to an embodiment of the present invention.
Figure 4 is a diagram showing a target site according to an embodiment of the present invention.
Figure 5 is a diagram showing arbitrary point locations for verification of classification accuracy according to an embodiment of the present invention.
Figure 6 shows the results of UAV image production according to an embodiment of the present invention.
Figure 7 shows the image segmentation results according to an embodiment of the present invention.
Figure 8 is a diagram showing training data characteristics according to land cover according to an embodiment of the present invention.
Figure 9 is a diagram showing the importance of variables ranked 40th among 126 variables according to an embodiment of the present invention.
Figure 10 is a diagram showing the results of applying an RF model to the entire target area according to an embodiment of the present invention according to an embodiment of the present invention.
Figure 11 is a diagram showing examples of types of sidewalk blocks on the sidewalk within the target site according to an embodiment of the present invention.

도시지역에서 토지피복도는 환경 평가 및 연구 분야의 기본자료로 활용되는 중요한 공간정보이나 자료의 갱신주기, 제작비용 등의 한계로 중,소규모 지역을 대상으로 활용성이 부족한 측면이 있다. 본 발명에서는 도시지역에서 UAV로 취득된 고해상도 영상을 기반으로 차도, 인도, 가로수, 가로녹지를 포함하는 토지피복도를 제작하는데 효과적인 영상을 확인하고, 토지피복 제작 방법 및 자료의 활용성에 대해 제안한다. In urban areas, land cover maps are important spatial information used as basic data in the field of environmental assessment and research, but there is a lack of usability for small and medium-sized areas due to limitations such as the data update cycle and production costs. In the present invention, we identify images that are effective in producing a land cover map including driveways, sidewalks, street trees, and street green space based on high-resolution images acquired by UAV in urban areas, and propose a land cover production method and usability of the data.

본 발명의 실시예에 따르면, UAV 및 객체 기반 영상 분석을 기반으로 랜덤 포레스트 분류(random forest classifier)를 통해 학습에 사용된 126개 변수의 중요도 산출을 하였다. 이를 통해 UAV 영상의 중요도를 평가하고 변수 최적화를 통해 모델을 최적화하여 126개의 변수를 사용한 초기 모델과 비교, 분석하였다. 변수 중요도를 산출했을 때 40위 내에 nDSM, NDVI, LST, SAVI, Blue, Green, Red, Rededge 영상 순으로 개수가 분포하고 있었다. 도시지역 토지피복 분류에서 다중분광 및 식생지수 외에도 nDSM과 LST 영상도 효과적으로 사용할 수 있을 것으로 나타났다. 정확도 검증 결과, 초기 모델의 kappa 계수가 0.728, 최적화 모델의 kappa 계수는 0.721로 나타나 변수를 축소하였음에도 불구하고 분류 결과에서 큰 변화가 나타나지 않았다. 차도와 인도가 구분이 되는 것으로 나타났으며, 도로를 차도와 인도로 구분하였을 때 차도가 인도보다 분류가 더 잘되었으며, 주변 객체의 분광 변동 특성을 통해 가로수와 가로녹지가 산림과 초지로부터 구분되는 것을 확인하였다. UAV를 활용한 객체 기반 토지피복 분류기법의 적용의 자료의 적시성, 경제성 등의 장점으로 도시 환경 연구 분야에 기여할 수 있을 것으로 판단된다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다. According to an embodiment of the present invention, the importance of 126 variables used in learning was calculated through random forest classifier based on UAV and object-based image analysis. Through this, the importance of UAV images was evaluated, the model was optimized through variable optimization, and compared and analyzed with the initial model using 126 variables. When calculating variable importance, nDSM, NDVI, LST, SAVI, Blue, Green, Red, and Rededge images were distributed in the order of the top 40. It was shown that nDSM and LST images, in addition to multispectral and vegetation indices, can be effectively used in land cover classification in urban areas. As a result of the accuracy verification, the kappa coefficient of the initial model was 0.728 and the kappa coefficient of the optimized model was 0.721, so there was no significant change in the classification results despite reducing the variables. It was found that the roadway and sidewalk were distinguishable, and when the road was classified into the roadway and sidewalk, the roadway was classified better than the sidewalk, and through the spectral variation characteristics of surrounding objects, street trees and street green space were distinguished from forests and grasslands. Confirmed. It is believed that the application of the object-based land cover classification technique using UAV can contribute to the field of urban environmental research due to its advantages such as data timeliness and economic feasibility. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법을 설명하기 위한 흐름도이다. Figure 1 is a flowchart illustrating a method for mapping urban spatial information using drones and artificial intelligence according to an embodiment of the present invention.

제안하는 드론 및 인공지능을 활용한 도시 공간정보 매핑 방법은 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계(110), 상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계(120) 및 상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계(130)를 포함한다. The proposed urban spatial information mapping method using drones and artificial intelligence includes the step of producing a multispectral image, a vegetation index image, and a terrain image through a sensor of an unmanned aerial vehicle (110), the produced multispectral image, a vegetation index image, and A step of confirming images and variables for random forest-based land cover classification using topographic images (120) and a step of verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the confirmed images and variables ( 130).

단계(110)에서, 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작한다. 본 발명의 실시예에 따르면, 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(Near Infrared band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature)를 포함하는 정사영상을 제작할 수 있다. In step 110, a multispectral image, a vegetation index image, and a terrain image are produced through the sensor of the unmanned aerial vehicle. According to an embodiment of the present invention, red, green, blue, red edge, NIR band (Near Infrared band) and DSM (Digital Surface Model) and DEM (Digital Elevation model) and LST (Land Surface Temperature) can be produced.

본 발명의 실시예에 따르면, 다중분광 영상을 이용하여 레드(Red) 및 NIR((Near Infrared) 파장 대역을 사용하고, 식생에 관한 지표인 NDVI(Normalized Difference Vegetation Index) 및 식물 피복이 미리 정해진 기준보다 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하기 위해 사용하는 지표인 SAVI(Soil Adjusted Vegetation Index)를 산출한다. 상기 SAVI는 토지피복 유형을 수용하기 위한 토양 밝기 보정 계수를 정의하고, 레드(Red)와 NIR 값 사이의 비율로 계산할 수 있다. 상기 DSM(Digital Surface Model)에서 지물을 제외한 지면의 높이 값을 나타내는 DEM(Digital Elevation Model)과의 차연산을 통해, 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작할 수 있다. According to an embodiment of the present invention, red and near infrared (NIR) wavelength bands are used using multispectral images, and NDVI (Normalized Difference Vegetation Index), which is an indicator of vegetation, and plant cover are determined by predetermined standards. Calculates the Soil Adjusted Vegetation Index (SAVI), an index used to correct NDVI for the effect of soil brightness in lower regions. SAVI defines a soil brightness correction factor to accommodate land cover types, and Red ( It can be calculated as the ratio between Red) and NIR values. Through difference calculation with DEM (Digital Elevation Model), which represents the height value of the ground excluding features in the DSM (Digital Surface Model), the elevation of features excluding the ground It is possible to create a normalized digital surface model (nDSM) that represents only values.

본 발명의 실시예에 따라 제작된 모든 영상은 다중분광 영상을 기준으로 리샘플링(resampling)되고, 제작된 모든 영상의 레이어들을 선형 밴드로 동일하게 리스케일링(rescaling)된다. 상기 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서 잠재적인 이상 값의 영향을 감소시키고, 동일한 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로써 공통된 값 범위로 정규화하며, 영상 분할을 진행하기 위한 하나의 래스터 이미지의 입력 데이터를 생성하기 위해 제작된 모든 영상을 병합하는 레이어 스택(layer stack) 프로세스를 진행한다. All images produced according to an embodiment of the present invention are resampled based on the multispectral image, and the layers of all produced images are equally rescaled into linear bands. In the step of identifying images and variables for land cover classification, the impact of potential outliers is reduced, the relative size of numerical data is removed to reflect the same importance, normalized to a common value range, and image segmentation is performed. A layer stack process is performed to merge all produced images to generate input data for a single raster image.

단계(120)에서, 상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인한다. In step 120, images and variables for land cover classification based on random forest are confirmed using the produced multispectral image, vegetation index image, and topographic image.

본 발명의 실시예에 따르면, 분광 특성의 유사도에 따라 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 각 객체를 생성하는 영상 분할을 통해 객체 기반 가중치 설정에 따라 객체 형태 및 크기를 변경할 수 있다. According to an embodiment of the present invention, the object shape and size can be changed according to object-based weight settings through image segmentation that generates each object by grouping individual pixels in raster data with specific shape characteristics according to the similarity of spectral characteristics. .

이때, 인접 객체의 픽셀 그룹에 따라 평균 픽셀 값을 계산하여, 각 객체에 포함되어야 하는 픽셀을 결정하며, 분광 디테일(Spectral detail), 공간 디테일(Spatial detail) 및 최소 분할 사이즈(minium segment size)를 조정하여 객체 기반 가중치 설정함으로써 각 객체 생성을 조정할 수 있다. At this time, the average pixel value is calculated according to the pixel group of adjacent objects, the pixels that should be included in each object are determined, and spectral detail, spatial detail, and minimum segment size are determined. You can adjust the creation of each object by adjusting and setting object-based weights.

본 발명의 실시예에 따른 영상 분할을 통해 생성된 각 객체에 할당된 복수의 통계 값들을 이용하여 복수의 변수를 생성하고, 상기 복수의 변수의 중요도에 따라 복수의 변수를 최적화하는 랜덤 포레스트(Random forest) 기반 토지피복 분류를 수행함으로써 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water)을 포함하는 분류 항목으로 토지피복을 분류한다. A random forest (Random Forest) that generates a plurality of variables using a plurality of statistical values assigned to each object created through image segmentation according to an embodiment of the present invention, and optimizes the plurality of variables according to the importance of the plurality of variables. By performing land cover classification based on forest, buildings, car road, sidewalk, forest, grass, street tree, street grass, and bare ground are classified. Land cover is classified into categories including bare soil and water.

단계(130)에서, 상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증한다. 이때, 객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통해 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정한다. In step 130, the accuracy of land cover classification based on the unmanned aerial vehicle image is verified using the identified image and variables. At this time, the producer's accuracy, user's accuracy, and overall accuracy are calculated through a confusion matrix that calculates accuracy by organizing the object item classification result and the actual item into a matrix. do.

도 2는 본 발명의 일 실시예에 따른 드론 및 인공지능을 활용한 도시 공간정보 매핑 장치의 구성을 나타내는 도면이다.Figure 2 is a diagram showing the configuration of an urban spatial information mapping device using a drone and artificial intelligence according to an embodiment of the present invention.

제안하는 드론 및 인공지능을 활용한 도시 공간정보 매핑 장치(200)는 영상 제작부(210), 토지피복 분류부(220) 및 정확도 검증부(230)를 포함한다. The proposed urban spatial information mapping device 200 using drones and artificial intelligence includes an image production unit 210, a land cover classification unit 220, and an accuracy verification unit 230.

본 발명의 실시예에 따른 영상 제작부(210)는 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작한다. 본 발명의 실시예에 따르면, 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(Near Infrared band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature)를 포함하는 정사영상을 제작할 수 있다. The image production unit 210 according to an embodiment of the present invention produces multispectral images, vegetation index images, and topographic images through sensors of an unmanned aerial vehicle. According to an embodiment of the present invention, red, green, blue, red edge, NIR band (Near Infrared band) and DSM (Digital Surface Model) and DEM (Digital Elevation model) and LST (Land Surface Temperature) can be produced.

본 발명의 실시예에 따르면, 다중분광 영상을 이용하여 레드(Red) 및 NIR((Near Infrared) 파장 대역을 사용하고, 식생에 관한 지표인 NDVI(Normalized Difference Vegetation Index) 및 식물 피복이 미리 정해진 기준보다 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하기 위해 사용하는 지표인 SAVI(Soil Adjusted Vegetation Index)를 산출한다. 상기 SAVI는 토지피복 유형을 수용하기 위한 토양 밝기 보정 계수를 정의하고, 레드(Red)와 NIR 값 사이의 비율로 계산할 수 있다. 상기 DSM(Digital Surface Model)에서 지물을 제외한 지면의 높이 값을 나타내는 DEM(Digital Elevation Model)과의 차연산을 통해, 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작할 수 있다. According to an embodiment of the present invention, red and near infrared (NIR) wavelength bands are used using multispectral images, and NDVI (Normalized Difference Vegetation Index), which is an indicator of vegetation, and plant cover are determined by predetermined standards. Calculates the Soil Adjusted Vegetation Index (SAVI), an index used to correct NDVI for the effect of soil brightness in lower regions. SAVI defines a soil brightness correction factor to accommodate land cover types, and Red ( It can be calculated as the ratio between Red) and NIR values. Through difference calculation with DEM (Digital Elevation Model), which represents the height value of the ground excluding features in the DSM (Digital Surface Model), the elevation of features excluding the ground It is possible to create a normalized digital surface model (nDSM) that represents only values.

본 발명의 실시예에 따라 제작된 모든 영상은 다중분광 영상을 기준으로 리샘플링(resampling)되고, 제작된 모든 영상의 레이어들을 선형 밴드로 동일하게 리스케일링(rescaling)된다. 상기 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서 잠재적인 이상 값의 영향을 감소시키고, 동일한 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로써 공통된 값 범위로 정규화하며, 영상 분할을 진행하기 위한 하나의 래스터 이미지의 입력 데이터를 생성하기 위해 제작된 모든 영상을 병합하는 레이어 스택(layer stack) 프로세스를 진행한다. All images produced according to an embodiment of the present invention are resampled based on the multispectral image, and the layers of all produced images are equally rescaled into linear bands. In the step of identifying images and variables for land cover classification, the impact of potential outliers is reduced, the relative size of numerical data is removed to reflect the same importance, normalized to a common value range, and image segmentation is performed. A layer stack process is performed to merge all produced images to generate input data for a single raster image.

본 발명의 실시예에 따른 토지피복 분류부(220)는 상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인한다. The land cover classification unit 220 according to an embodiment of the present invention uses the produced multispectral image, vegetation index image, and topographic image to identify images and variables for random forest-based land cover classification.

본 발명의 실시예에 따르면, 분광 특성의 유사도에 따라 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 각 객체를 생성하는 영상 분할을 통해 객체 기반 가중치 설정에 따라 객체 형태 및 크기를 변경할 수 있다. According to an embodiment of the present invention, the object shape and size can be changed according to object-based weight settings through image segmentation that generates each object by grouping individual pixels in raster data with specific shape characteristics according to the similarity of spectral characteristics. .

이때, 인접 객체의 픽셀 그룹에 따라 평균 픽셀 값을 계산하여, 각 객체에 포함되어야 하는 픽셀을 결정하며, 분광 디테일(Spectral detail), 공간 디테일(Spatial detail) 및 최소 분할 사이즈(minium segment size)를 조정하여 객체 기반 가중치 설정함으로써 각 객체 생성을 조정할 수 있다. At this time, the average pixel value is calculated according to the pixel group of adjacent objects, the pixels that should be included in each object are determined, and spectral detail, spatial detail, and minimum segment size are determined. You can adjust the creation of each object by adjusting and setting object-based weights.

본 발명의 실시예에 따른 영상 분할을 통해 생성된 각 객체에 할당된 복수의 통계 값들을 이용하여 복수의 변수를 생성하고, 상기 복수의 변수의 중요도에 따라 복수의 변수를 최적화하는 랜덤 포레스트(Random forest) 기반 토지피복 분류를 수행함으로써 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water)을 포함하는 분류 항목으로 토지피복을 분류한다. A random forest (Random Forest) that generates a plurality of variables using a plurality of statistical values assigned to each object created through image segmentation according to an embodiment of the present invention, and optimizes the plurality of variables according to the importance of the plurality of variables. By performing land cover classification based on forest, buildings, car road, sidewalk, forest, grass, street tree, street grass, and bare ground are classified. Land cover is classified into categories including bare soil and water.

본 발명의 실시예에 따른 정확도 검증부(230)는 상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증한다. 이때, 객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통해 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정한다. The accuracy verification unit 230 according to an embodiment of the present invention verifies the accuracy of land cover classification based on the unmanned aerial vehicle image using the confirmed image and variables. At this time, the producer's accuracy, user's accuracy, and overall accuracy are calculated through a confusion matrix that calculates accuracy by organizing the object item classification result and the actual item into a matrix. do.

도 3은 본 발명의 일 실시예에 따른 객체 기반 도시 공간정보 맵을 도출하기 위해 구현된 데이터 수집, 전처리, 세분화, 분류 및 검증 단계에 대한 프로세스를 설명하기 위한 도면이다. FIG. 3 is a diagram illustrating the process of data collection, preprocessing, segmentation, classification, and verification steps implemented to derive an object-based urban spatial information map according to an embodiment of the present invention.

본 발명의 실시예에 따른 객체 기반 도시 공간정보 맵을 도출하기 위한 프로세스는 도 3과 같이, 데이터 수집(data acquisition)(311) 및 전처리(image preprocessing)(312) 단계를 포함하는 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계(310), 영상 분할(image segmentation)(321) 및 분류(classification)(322)를 포함하는 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계(320) 및 정확도 평가(accuracy assessments)(330)의 5가지 주요 단계로 단순화될 수 있다. The process for deriving an object-based urban spatial information map according to an embodiment of the present invention includes the data acquisition (311) and image preprocessing (312) steps, as shown in FIG. 3, using the sensor of the unmanned aerial vehicle. A step of producing a multispectral image, a vegetation index image, and a terrain image (310), a multispectral image, a vegetation index image, and a terrain image including image segmentation (321) and classification (322). It can be simplified into five main steps: checking images and variables for random forest-based land cover classification using 320 and accuracy assessments 330.

먼저, 기초 데이터 수집(data acquisition)(311)으로 동일한 공간에 여러 영상들이 중첩될 수 있도록 UAV 비행 및 GCPs를 획득하여 정사영상을 제작하였다. 이후, 도시지역 토지피복 분류에 효과적인 영상 및 변수를 확인하기 위한 전처리 단계(image preprocessing)(312)로 수치형 데이터의 상대적 크기 차이를 제거함으로써 모든 영상에 동일한 가중치를 부여하였다. 다음으로, 영상 분할 및 객체 생성(321)을 통해서 유사 특성을 가지는 화소를 그룹화하여 객체를 생성하였다. 이를 바탕으로 훈련 데이터를 제작하고, UAV 영상에서 추출할 수 있는 모든 변수들을 적용하여 RF 분류기(Random Forest Classifier)를 훈련시킨 후 변수 중요도를 산출하였다(322). 이를 통해 도시지역 토지피복 분류에 효과적인 영상과 변수를 확인하고, 영상 및 변수 축소시켜 모델을 다시 훈련시키고, 정확도 비교, 검증(330)을 통해 UAV 영상과 OBIA를 활용한 도시지역 토지피복 분류에 대한 활용성을 고찰하였다. 아래에서, 본 발명의 일 실시예에 따른 객체 기반 도시 공간정보 맵을 도출하기 위해 구현된 데이터 수집, 전처리, 세분화, 분류 및 검증 단계에 대한 프로세스에 대하여 더욱 상세히 설명한다. First, through basic data acquisition (311), orthoimages were produced by acquiring UAV flights and GCPs so that multiple images could be overlapped in the same space. Afterwards, in an image preprocessing step (312) to identify images and variables that are effective in classifying land cover in urban areas, the same weight was assigned to all images by removing differences in the relative sizes of the numerical data. Next, an object was created by grouping pixels with similar characteristics through image segmentation and object creation (321). Based on this, training data was created, an RF classifier (Random Forest Classifier) was trained by applying all variables that could be extracted from UAV images, and variable importance was calculated (322). Through this, effective images and variables for land cover classification in urban areas are identified, the model is retrained by reducing images and variables, and accuracy is compared and verified (330) to provide information on land cover classification in urban areas using UAV images and OBIA. Usability was considered. Below, the process of data collection, preprocessing, segmentation, classification, and verification steps implemented to derive an object-based urban spatial information map according to an embodiment of the present invention will be described in more detail.

도 4는 본 발명의 일 실시예에 따른 대상지를 나타내는 도면이다. Figure 4 is a diagram showing a target site according to an embodiment of the present invention.

본 발명의 실시예에 따른 도시 공간정보 매핑을 위한 대상지는 UAV 영상을 활용한 도시지역 토지피복도 제작과 활용성 검증이 가능한 대상지를 선정하고자 도 4에 도시된 바와 같이 소규모 지역에 다양한 토지피복 유형이 존재하는 대한민국 경상남도 창원시 창원대학교 일대로 선정하였다. UAV 촬영 범위는 대학교 외각지역을 포함하여 623 m x 1138 m의 장방형으로 설정하였다. 지형은 주변에 해발고도 약 600m의 산으로 둘러싸고 있다. 학교 내에는 5~8층 높이의 건물이 주로 분포하고 있으며, 보도블록 재질의 보행로가 넓게 조성되어 있는 지역과 차도와 보행로가 함께 있는 지역으로 구성되어 있다. 그리고 곳곳에 잔디, 수목, 등 조경시설이 분포하고 있다. The target site for urban spatial information mapping according to an embodiment of the present invention is to select a target site that can produce land cover maps of urban areas using UAV images and verify usability. As shown in Figure 4, various land cover types are selected in small areas. The area around Changwon National University, Changwon-si, Gyeongsangnam-do, South Korea, was selected. The UAV shooting range was set to a rectangle of 623 m x 1138 m, including the outer area of the university. The terrain is surrounded by mountains with an altitude of approximately 600m. Buildings with a height of 5 to 8 stories are mainly distributed within the school, and it consists of an area with a wide pedestrian path made of sidewalk blocks and an area with both a roadway and a pedestrian path. Additionally, landscaping facilities such as lawns and trees are distributed throughout the area.

본 발명의 실시예에 따른 데이터 수집 및 전처리 단계를 포함하는 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계에서 사용되는 UAV는 스위스 sensefly 사에서 개발된 고정익 기체 eBeeX로서 중량은 약 1.4 kg, 날개길이는 116cm이다. 최대 90분 동안 40~110km/h 속도로 비행이 가능하며, 기체에는 RGB, 열적외, 5 band 다중분광 등 다양한 센서를 탑재할 수 있고, RTK/PPK 기능이 내장되어 있다. The UAV used in the step of producing multispectral images, vegetation index images, and terrain images through the sensors of the unmanned aerial vehicle, including the data collection and preprocessing steps according to an embodiment of the present invention, is the fixed-wing eBeeX developed by sensefly, Switzerland. It weighs about 1.4 kg and has a wingspan of 116 cm. It can fly at a speed of 40~110km/h for up to 90 minutes, and the aircraft can be equipped with various sensors such as RGB, thermal infrared, and 5 band multispectral, and has built-in RTK/PPK functions.

본 발명에서는 Duet-T(RGB+Thermal), RedEdge-MX(Red, Green, Blue, Rededge, NIR)를 활용하였다. 본 발명의 실시예에 따른 촬영일시는 2021년 6월 21일이며, 구름이 없는 맑은 날에 실시하였다. 비행은 RedEge-MX 센서 장착 시에는 GSD(ground sample distance)가 13cm/pixel로 설정하여 비행하였으며, Duet-T 센서 장착 시에는 thermal 센서의 GSD가 20cm/pixel로 설정하여 비행하였다. 종 중복도 및 횡 중복도는 모두 75%로 설정하였다. 그리고 도 4에서 제시한 바와 같이 드론 영상의 위치 정확도 보정을 위해 25 지점의 GCPs(Ground Control Points)를 취득하였다.In the present invention, Duet-T (RGB+Thermal) and RedEdge-MX (Red, Green, Blue, Rededge, NIR) were used. The shooting date according to the embodiment of the present invention was June 21, 2021, and was conducted on a clear day without clouds. The flight was conducted with the GSD (ground sample distance) set to 13cm/pixel when the RedEge-MX sensor was installed, and the GSD of the thermal sensor was set to 20cm/pixel when the Duet-T sensor was installed. Both species and lateral redundancy were set to 75%. And as shown in Figure 4, 25 GCPs (Ground Control Points) were acquired to correct the location accuracy of the drone image.

본 발명의 실시예에 따라 수집된 UAV 이미지는 Pix4D Mapper 소프트웨어를 이용하여 정사영상으로 각각 제작하였으며, 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature) 정사영상을 제작하였다. 그리고 다중분광 영상을 이용하여 식(1)과 식(2)를 이용하여 NDVI(Normalized Difference Vegetation Index)와 SAVI(Soil Adjusted Vegetation Index)을 산출하였다. NDVI는 레드(Red) 및 NIR 파장 대역을 사용하는 지표이며, 식생과 밀접한 관련이 있다. NDVI 값이 높아질수록 NIR 반사도가 높은 것으로 식생의 밀도가 높고 건강한 식물에 해당한다. SAVI는 식물 피복이 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하는데 사용하는 지표이다. 랜드샛(Landsat) 위성영상으로부터 파생된 SAVI는 대부분의 토지피복 유형을 수용하기 위해 토양 밝기 보정 계수(L)을 0.5로 정의하고 있으며, Red와 NIR 값 사이의 비율로 계산한다[1]. 그리고 DSM에서 지물을 제외한 지면의 높이 값을 나타내는 DEM과의 차연산을 통해서, 순수한 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작하였다. nDSM을 분류과정에 사용할 경우, 지형에 존재하는 건물 및 수목을 더욱 효과적으로 분류할 수 있을 것으로 판단되기 때문이다.UAV images collected according to an embodiment of the present invention were each produced as an orthoimage using Pix4D Mapper software, and were divided into red, green, blue, red edge, and NIR bands. ) and DSM (Digital Surface Model), DEM (Digital Elevation model), and LST (Land Surface Temperature) orthoimages were produced. And using multispectral images, NDVI (Normalized Difference Vegetation Index) and SAVI (Soil Adjusted Vegetation Index) were calculated using equations (1) and (2). NDVI is an indicator that uses red and NIR wavelength bands and is closely related to vegetation. The higher the NDVI value, the higher the NIR reflectivity, which corresponds to high density of vegetation and healthy plants. SAVI is an index used to correct NDVI for the effect of soil brightness in areas of low vegetation cover. SAVI, derived from Landsat satellite imagery, defines a soil brightness correction factor (L) of 0.5 to accommodate most land cover types, and is calculated as the ratio between Red and NIR values [1]. And through difference calculation with DEM, which represents the height value of the ground excluding features in DSM, nDSM (normalized digital surface model), which represents only the elevation value of features excluding pure ground, was created. This is because it is believed that if nDSM is used in the classification process, buildings and trees existing in the terrain can be more effectively classified.

(1) (One)

(2) (2)

제작된 모든 영상은 조경을 위해 식재되어 있는 도로 사이의 가로녹지까지 인식하기 위해 다중분광 영상을 기준으로 GSD를 15cm/pixel로 리샘플링(resampling)하였다. 그리고 제작된 영상 레이어들은 다음 단계인 분류에서도 사용되기 때문에 모든 입력 레이어들을 0에서 255까지의 8bit 범위로 선형 밴드로 동일하게 리스케일링(rescaling)하였다. 이 단계는 분할 및 분류 단계에서 잠재적인 이상 값의 영향을 줄이고, 동일한 정도의 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로서 공통된 값 범위로 정규화하였다. 마지막으로 영상 분할을 진행할 때 하나의 래스터 이미지가 입력 데이터로 필요하기 때문에 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR, NDVI, SAVI, LST, nDSM을 병합하는 레이어 스택(layer stack) 프로세스를 진행하였다.All produced images were resampled with GSD to 15cm/pixel based on multispectral images in order to recognize the horizontal green space between roads planted for landscaping. And since the produced image layers are also used in the next step, classification, all input layers were equally rescaled into a linear band with an 8-bit range from 0 to 255. This step reduces the impact of potential outliers in the segmentation and classification steps and normalizes them to a common value range by removing the relative size of the numerical data to reflect the same degree of importance. Lastly, since one raster image is required as input data when performing image segmentation, Red, Green, Blue, Red Edge, NIR, NDVI, SAVI, LST, and nDSM are merged. A layer stack process was carried out.

본 발명의 실시예에 따른 영상 분할 및 분류를 포함하는 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서, 영상 분할이란 분광 특성이 유사하고 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 하나의 객체로 만들어 주는 과정으로 객체 기반 가중치 설정에 따라 객체 형태 및 크기가 달라진다[2]. 이 기술은 인접 픽셀 그룹을 고려하여 평균 픽셀 값을 계산하며, 각 객체에 포함되어야 하는 픽셀을 결정한다. 영상 분할은 미세한 픽셀 단위가 아니라 더 커다란 연속적인 영역으로 모든 데이터의 특징들을 유지하기 위해 래스터 내 영역을 일반화한다[3]. 따라서, 객체 기반 영상 분석의 신뢰성은 적절한 영상 분할에 의해 결정되며, 분할 결과에 따라 분류 정확도가 달라질 수 있다. In the step of identifying images and variables for random forest-based land cover classification using multispectral images, vegetation index images, and topographic images including image segmentation and classification according to an embodiment of the present invention, image segmentation is a spectral characteristic. This is a process of grouping individual pixels in raster data with similar and specific shape characteristics into one object, and the shape and size of the object vary depending on the object-based weight setting [2]. This technique calculates the average pixel value by considering groups of neighboring pixels and determines which pixels each object should contain. Image segmentation generalizes the area within the raster to maintain all data features into a larger continuous area rather than at a fine pixel level [3]. Therefore, the reliability of object-based image analysis is determined by appropriate image segmentation, and classification accuracy may vary depending on the segmentation results.

본 발명의 실시예에 따른 영상 분할을 위해 ArcGIS pro 2.8 소프트웨어를 사용하였다. ArcGIS에서는 영상을 분할할 때 객체 생성에 사용된 가중치를 고려해야 한다. 분광 디테일(Spectral detail)과 공간 디테일(Spatial detail)이 1에서 20 사이의 값으로 수정을 통해 객체 생성을 조정할 수 있다. 영상 분할은 미세한 공간 해상도로 인한 복잡성과 파일 크기를 제거하여 분류 처리 속도를 향상시키도록 설계되었으나, 입력된 가중치 값과 영상분할 결과 사이의 관계는 명확히 설명되기 어려우므로 분석자는 시행착오를 통하여 적절한 기준이나 방법을 찾아야 한다[4, 5]. 두 가지 가중치 중 하나의 디테일을 줄이면 래스터 데이터의 복잡성과 파일 크기가 줄어든다. 일반적으로 분광 디테일이 높고, 공간 디테일이 낮은 영상 분할은 처리 시간이 짧기 때문에 선호된다. 그리고 최소 분할 사이즈(minium segment size) 조정을 통해 이 크기보다 작은 객체의 경우 가장 유사한 인접 세그먼트와 병합시킬 수 있다. ArcGIS pro 2.8 software was used to segment images according to an embodiment of the present invention. In ArcGIS, the weights used to create objects must be considered when segmenting an image. Object creation can be adjusted by modifying the spectral detail and spatial detail to values between 1 and 20. Image segmentation is designed to improve classification processing speed by eliminating complexity and file size due to fine spatial resolution, but since the relationship between input weight values and image segmentation results is difficult to clearly explain, analysts must use trial and error to determine appropriate standards. However, a method must be found [4, 5]. Reducing the detail of either weight reduces the complexity and file size of the raster data. In general, image segmentation with high spectral detail and low spatial detail is preferred because of its short processing time. And by adjusting the minimum segment size, objects smaller than this size can be merged with the most similar adjacent segments.

본 발명의 실시예에서는 분광 디테일을 10에서부터 20까지 5단위로 순차적으로 판독하고, 공간 디테일을 5단위로 변화시키며 객체 생성을 판독하였다. 그 다음으로 분광 디테일과 공간 디테일을 1단위로 조정하였으며, 최소 분할 사이즈를 20부터 60까지 10단위로 순차적으로 적용하여 매우 작은 객체 크기를 인접 객체와 병합시켜 최종 가중치를 선정하였다. In an embodiment of the present invention, spectral detail was sequentially read in 5 units from 10 to 20, and spatial detail was changed in 5 units to read object creation. Next, the spectral detail and spatial detail were adjusted in increments of 1, and the minimum segment size was sequentially applied in increments of 10 from 20 to 60 to merge very small object sizes with adjacent objects to select the final weight.

토지피복도는 도시차원에서 다양한 연구기초자료가 되고 있으므로, 본 발명에서는 도시 환경 분석에 기여하기 위해 분류 항목을 설정하였다. 분류 항목은 도 3에 도시된 것과 같이 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water) 9항목으로 구분하였다. 여기서 도로를 차가 다니는 도로와 사람이 다니는 도로로 세분화 하였으며, 산림과 가로수, 초지와 가로녹지로 세분화하였다. 그 이유는 차가 다니는 공간은 미세먼지, NOx 등 대기 오염물질이 배출되지만 인도에서는 발생하지 않기 때문에 오염물질 발생 공간을 더 특정 지을 수 있도록 분류를 세분화하였다. 그리고 가로수와 가로녹지의 경우 면적이 일정 기준 이하일 경우 환경부 토지피복도에서는 도로 토지피복으로 분류되고 있다. 가로수 및 가로녹지는 도시의 미세먼지 저감, 바람길, 열환경 저감 등 다양한 측면에서 이용될 수 있는 토지피복이므로 추가하였다.Since the land cover map serves as basic data for various studies at the city level, the present invention sets up classification items to contribute to the analysis of the urban environment. As shown in Figure 3, the classification items include building, car road, sidewalk, forest, grass, street tree, street grass, and bare ground. It was divided into 9 items: bare soil and water. Here, the roads were subdivided into roads for cars and roads for people, and further subdivided into forests, street trees, grasslands, and street green spaces. The reason is that air pollutants such as fine dust and NOx are emitted in spaces where cars drive, but since these do not occur in India, the classification was subdivided to better specify the space where pollutants are generated. In the case of street trees and street green space, if the area is below a certain standard, they are classified as road land cover in the Ministry of Environment's land cover map. Street trees and street green space were added because they are land covers that can be used in various aspects such as reducing fine dust in the city, wind paths, and reducing the thermal environment.

토지피복을 분류하기 위해 UAV 기반 영상으로부터 객체에 할당한 통계 값들은 count, area, mean, max, range, STD(standard deviation), sum, variety, majority, minority, median, PCT(percentile), NMS(nearby mean STD)이다. 이를 통해 하나의 객체에 각 영상별로 14개씩 통계값을 계산하여 총 126개의 변수를 구축하였다. 본 연구에서 토지피복과 가로녹지를 분류하고자 하나 산림과 가로수, 초지와 가로녹지의 분광 특성이 비슷한 특성을 보일 수 있다. 그러나 산림과 초지는 주위의 객체들이 분광특성이 비슷한 산림 또는 초지인 것에 반해 가로수 및 가로녹지는 도로, 인도, 건물 등 식생이 아닌 토지피복이 함께 존재하고 있어 주위의 분광 특성과 많은 편차가 발생한다. 따라서 각 객체로부터 3m 내에 있는 객체들의 평균(mean) 값을 표준편차로 계산하여 가로수와 가로녹지를 분류할 수 있도록 NMS 변수를 추가하였다.The statistical values assigned to objects from UAV-based images to classify land cover are count, area, mean, max, range, STD (standard deviation), sum, variety, majority, minority, median, PCT (percentile), NMS ( (mean nearby STD). Through this, a total of 126 variables were constructed by calculating 14 statistical values for each image for one object. Although this study seeks to classify land cover and street green space, the spectral characteristics of forests, street trees, grasslands, and street green space may show similar characteristics. However, while forests and grasslands are forests or grasslands in which the surrounding objects have similar spectral characteristics, street trees and street green spaces contain land cover rather than vegetation such as roads, sidewalks, and buildings, resulting in large deviations from the surrounding spectral characteristics. Therefore, an NMS variable was added to classify street trees and street green space by calculating the standard deviation of the average value of objects within 3 m from each object.

감독분류를 위해 훈련자료는 물을 제외한 8개의 항목에 대해 1000-5000개 범위의 폴리곤(polygon)을 구축하였다. 물의 경우 하천 내의 식생이 하천 부근을 대부분 덮어 165개의 폴리곤만 선택하였다. 이러한 훈련 폴리곤은 토지피복 등급 사이의 분포와 연구 지역을 특징짓는 다양한 색상의 음영을 고려하면서 화면 해석을 통해 수작업으로 선택하였다.For supervised classification, training data consisted of polygons in the range of 1000-5000 for 8 items excluding water. In the case of water, only 165 polygons were selected because vegetation within the stream covered most of the area near the stream. These training polygons were selected manually through screen interpretation, taking into account the distribution among land cover classes and the different shades of color that characterize the study area.

RF(Random Forest)[6]는 여러 개의 결정 트리 세트와 부스트스트랩 통합(booststrap aggregating)(다시 말해, bagging)으로 구성되어 있다. 이것은 조금씩 다른 훈련 데이터에 대해 훈련된 기초 분류기들을 결합시키는 방법으로 하나의 결정 트리는 동일한 샘플을 통해 훈련되지만 다른 샘플들은 전혀 선택되지 않고 다른 결정 트리에서 훈련을 진행한다. 한 개의 결정 트리는 훈련 데이터에 있는 노이즈에 매우 민감하지만, 트리들 간의 상관성을 낮추어 여러 트리들의 투표를 통해 도출된 결과는 노이즈에 대해 강한 장점을 가지고 있다. RF (Random Forest) [6] consists of several sets of decision trees and bootstrap aggregating (in other words, bagging). This is a method of combining basic classifiers trained on slightly different training data. One decision tree is trained using the same samples, but other samples are not selected at all and are trained on different decision trees. A single decision tree is very sensitive to noise in training data, but the results derived through voting on multiple trees by lowering the correlation between trees have a strong advantage against noise.

RF 분류기가 많은 강점이 있음에도 불구하고, 어떤 근거로 결과가 나왔는지 알 수 없는 블랙박스 모형이기 때문에 독립변수와 종속변수의 설명력을 확보하기 어렵다. 따라서, 변수의 증가는 OBIA 분류를 매우 주관적이고 시간 집약적인 작업으로 만든다. 이를 해결하기 위해. 변수 중요도라는 척도를 통해 어떤 변수가 예측 성능에 중요한 역할을 하는지 추정하여 변수를 최적화함으로써 이점을 얻을 수 있다. Although the RF classifier has many strengths, it is difficult to secure the explanatory power of the independent and dependent variables because it is a black box model in which it is unknown on what basis the results were obtained. Therefore, the increase in variables makes OBIA classification a highly subjective and time-intensive task. To solve this. Advantages can be gained by optimizing variables by estimating which variables play an important role in prediction performance through a measure called variable importance.

RF 분류기를 학습시키기 위해 훈련 데이터 샘플을 수집하는 것은 매우 중요한 일이다. 맵의 정확성에 대한 통계적으로 유효한 표현이 되도록 적절한 수의 샘플을 수집해야 하며, 토지피복의 면적 비율이 균등하지 않기 때문에 통계적으로 편향되지 않도록 샘플링하더라도 정확도 평가가 의미가 없어질 수 있다. 따라서 본 발명의 실시예에서는 전체 이미지 객체 254,456개 중에서 각 토지피복 항목당 적절한 수의 샘플을 수집하여 22,353개(8.8%)를 훈련 데이터로 사용하였다. Collecting training data samples to train an RF classifier is very important. An adequate number of samples must be collected to provide a statistically valid representation of the map's accuracy, and because the area ratio of land cover is not uniform, accuracy assessments may become meaningless even if sampled to be statistically unbiased. Therefore, in the embodiment of the present invention, an appropriate number of samples were collected for each land cover item among the total 254,456 image objects, and 22,353 (8.8%) were used as training data.

본 발명의 실시예에 따른 RF 학습은 훈련 데이터 중 검증 데이터의 비율을 30%로 설정하였다. 그리고 트리의 수(Number of tree)는 100 ~ 1000 범위로, 트리의 최대 깊이(maximum depth of tree)는 5 ~ 10, 최소 리프 사이즈(minimum leaf size)는 1~3으로 조정 및 변경을 통해 적합한 RF 모델을 탐색하였다. 최종적으로 트리의 수는 500, 트리의 최대 깊이는 10, 최소 리프 사이즈는 2로 선정하였다. 그리고 변수 중요도를 산출하여 변수를 최적화하여 동일한 조건에서 RF 모델을 학습시키고 비교하였다. In RF learning according to an embodiment of the present invention, the ratio of verification data among training data was set to 30%. Additionally, the number of trees ranges from 100 to 1000, the maximum depth of tree ranges from 5 to 10, and the minimum leaf size ranges from 1 to 3. The RF model was explored. Ultimately, the number of trees was set to 500, the maximum tree depth was 10, and the minimum leaf size was 2. Then, variable importance was calculated, variables were optimized, and RF models were trained and compared under the same conditions.

도 5는 본 발명의 일 실시예에 따른 분류 정확도 검증을 위한 임의의 포인트 위치를 나타내는 도면이다. Figure 5 is a diagram showing arbitrary point locations for verification of classification accuracy according to an embodiment of the present invention.

본 발명의 실시예에 따라 분류된 토지피복도의 정확도 검증은 도 5와 같이 객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통하여 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정하였다. 정확도 검증을 위한 참조자료는 UAV로 촬영한 원영상을 기반으로 무작위로 선정한 500개 검증 포인트를 선정하여 육안판독을 하였다.Verification of the accuracy of the land cover map classified according to the embodiment of the present invention is the producer's accuracy through a confusion matrix that calculates accuracy by organizing the classification results of object items and actual items into a matrix, as shown in Figure 5. and user's accuracy and overall accuracy were calculated, respectively. As reference data for accuracy verification, 500 randomly selected verification points were visually read based on the original image captured by a UAV.

도 6은 본 발명의 일 실시예에 따른 UAV 영상 제작 결과 이다. Figure 6 shows the results of UAV image production according to an embodiment of the present invention.

UAV 영상 수집 결과 Rededge-MX 센서로부터 레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR(Near Infrared) 이미지를 수집하였으며, 총 5,925장의 이미지를 취득하였다. Duet-T 센서는 RGB 및 LST 이미지를 수집하였으며, 각각 1,132장의 이미지를 취득하였다. 수집한 이미지를 접합하여 제작한 영상 결과는 도 6과 같이 9개의 영상을 제작하여 활용하였다. GCP를 바탕으로 영상 기하보정 결과, Duet-T 센서 기반 영상은 평균 제곱근 편차(RMSE)가 x방향 0.033m, y방향 0.048m로 나타났으며, Rededge-MX 센서 기반 영상은 평균 제곱근 편차(RMSE)가 x방향 0.056m, y방향 0.054m로 나타났다.As a result of UAV image collection, Red, Green, Blue, Red Edge, and NIR (Near Infrared) images were collected from the Rededge-MX sensor, and a total of 5,925 images were acquired. The Duet-T sensor collected RGB and LST images, and acquired 1,132 images each. The image results produced by combining the collected images were used to create 9 images, as shown in Figure 6. As a result of image geometry correction based on GCP, the root mean square deviation (RMSE) of the Duet-T sensor-based image was 0.033m in the x-direction and 0.048m in the y-direction, and the root mean square deviation (RMSE) of the image based on the Rededge-MX sensor was 0.048m in the y-direction. was found to be 0.056m in the x-direction and 0.054m in the y-direction.

도 7은 본 발명의 일 실시예에 따른 영상 분할 결과 이다. Figure 7 shows the image segmentation results according to an embodiment of the present invention.

본 발명의 실시예에 따른 영상분할 가중치 선정은 도 7에 도시된 것과 같이 분광 디테일(spectral detail) 10에서는 도로와 초지의 경계가 생성되지 않고 병합되는 경향이 나타났으며, 15에서는 일부 지역에서 도로와 인도가 구분되지 않는 구간이 존재하였다. 분광 디테일 20에서는 객체가 같은 토지피복 내에서도 매우 세밀하게 경계가 구분되는 경향이 나타났다. 이러한 경우 토지피복간 경계는 뚜렷하지만 객체의 크기가 매우 작기 때문에 영상의 노이즈에 민감해질 수 있다. 그리고 분광 디테일 15 및 공간 디테일(spatial detail) 15에서부터 차도와 인도가 구분되기 시작하였지만 아스팔트로 포장된 차도와 자갈로 구성된 나지의 경계가 생성되지 않았다. 이를 기준으로 분광 디테일을 증가시켜 차도와 나지의 경계가 뚜렷한 조건을 탐색하였다. 세부 조정을 통해 분광 디테일 18 및 공간 디테일 10 조건에서 각 토지피복별로 경계가 뚜렷하면서 객체가 과도하게 세밀하게 형성되지 않는 것을 확인하였다. 최소 분할 사이즈(minimum segment size)를 40으로 하였을 때 객체의 크기가 매우 작게 세분화되지 않고 적정한 크기로 구분되는 것으로 판단하였으며, 차도 가운데에 분리선 대신 존재하는 가로녹지의 경계가 명확해져 가중치를 40으로 선정하였다. 따라서, 객체기반 토지피복 분류를 위해 최종적으로 분광 디테일 18, 공간 디테일 10, 그리고 최소 분할 사이즈 40을 선정하였다(도 6 참조).As shown in FIG. 7, the selection of image segmentation weights according to an embodiment of the present invention showed a tendency for the boundaries between roads and grasslands to be merged rather than created at spectral detail 10, and at 15, roads and grasslands tended to be merged in some areas. There was a section where there was no distinction between and India. Spectral detail 20 showed a tendency for objects to have very fine boundaries even within the same land cover. In this case, the boundary between land covers is clear, but the size of the object is very small, so it may be sensitive to noise in the image. And from spectral detail 15 and spatial detail 15, the roadway and sidewalk began to be distinguished, but the boundary between the asphalt-paved roadway and the bare gravel made of gravel was not created. Based on this, the spectral detail was increased to explore conditions where the boundary between the driveway and the bare dirt is clear. Through detailed adjustment, it was confirmed that under spectral detail 18 and spatial detail 10 conditions, the boundaries for each land cover were clear and objects were not formed in excessive detail. When the minimum segment size was set to 40, it was judged that the size of the object was not subdivided into very small pieces but divided into appropriate sizes, and the boundary of the street green space that exists instead of the dividing line in the middle of the roadway became clear, so the weight was selected at 40. did. Therefore, for object-based land cover classification, spectral detail of 18, spatial detail of 10, and minimum segment size of 40 were finally selected (see Figure 6).

도 8은 본 발명의 일 실시예에 따른 토지피복에 따른 훈련 데이터 특성을 나타내는 도면이다. Figure 8 is a diagram showing training data characteristics according to land cover according to an embodiment of the present invention.

훈련에 사용한 클래스별 훈련데이터의 특성은 도 8과 같다. nDSM을 살펴보면 지물을 나타내는 특성에 의해서 건물(building), 산림(forest), 가로수(street tree)가 다른 토지피복에 비해서 뚜렷하게 구분되었다. NDVI 및 SAVI는 식생을 나타내는 클래스에서 뚜렷하게 높아지는 경향을 확인할 수 있으며, NDVI에서 가로녹지(street grass)의 경우 건초지나 흙이 드러난 부분으로 인해 박스 플롯(box plot)의 범위가 넓게 형성되어 있는 것으로 나타났다. 또한, 비식생의 경우 범위가 거의 겹치며 단일 파장에서는 식생과 비식생은 구분할 수 있지만 차도(car road)와 인도(sidewalk), 나지(bare soil)와 같이 세부 구분은 어려운 것으로 나타났다. LST는 물(water)이 뚜렷하게 낮게 구분되는 것을 확인할 수 있었고, 다음으로 산림, 초지(grass)와 같은 식생들이 낮은 범위로 존재하고 있다. 건물, 차도와 같이 인공피복 재질은 LST 값이 높은 특성이 나타났지만, 나지의 경우 식생 범위부터 인공피복 범위까지 넓게 분포하고 있는 것으로 나타났다. 레드(Red), 그린(Green), 블루(Blue) 영상에서는 범위가 계속 겹치는 차도, 인도, 나지의 박스 플롯이 구분되는 것으로 나타났으며, 특히, 블루 영상에서 차도, 인도, 나지의 범위가 구분되는 것으로 나타났다. NIR과 레드 에지(Rededge)는 물을 제외하고 대부분 클래스의 박스 플롯의 범위가 겹치는 것으로 나타났다. 차도와 인도는 블루 영상을 제외하고 모든 영상에서 범위가 겹치는 것으로 나타났지만 대부분이 검은색 아스팔트로 구성되어 있는 차도가 다양한 색깔의 블록으로 구성된 인도보다 박스 플롯범위가 더 좁게 나타났다. The characteristics of the training data for each class used for training are shown in Figure 8. Looking at nDSM, buildings, forests, and street trees were clearly distinguished compared to other land covers based on their characteristics. NDVI and SAVI can be seen to have a clear tendency to increase in classes representing vegetation, and in the case of street grass in NDVI, the range of the box plot appears to be wide due to areas where hay or soil is exposed. . In addition, in the case of non-vegetation, the range almost overlaps, and although vegetation and non-vegetation can be distinguished at a single wavelength, detailed distinctions such as car road, sidewalk, and bare soil are difficult. LST was able to confirm that water was clearly classified as low, and then vegetation such as forests and grasses existed in a low range. Artificial covering materials such as buildings and driveways were characterized by high LST values, but in the case of bare soil, it was found to be widely distributed from the vegetation range to the artificial cover range. In the red, green, and blue images, the box plots of the driveway, sidewalk, and backyard, whose ranges continuously overlap, were found to be distinct. In particular, the ranges of the driveway, sidewalk, and backyard were distinct in the blue image. It turned out to be possible. NIR and Rededge showed that the ranges of the box plots for most classes overlapped, except for water. The range of the roadway and sidewalk appeared to overlap in all images except the blue image, but the box plot range for the roadway, which was mostly made of black asphalt, was narrower than the sidewalk, which was made up of blocks of various colors.

도 9는 본 발명의 일 실시예에 따른 126개 변수 중 40위까지의 변수 중요도를 나타내는 도면이다. Figure 9 is a diagram showing the importance of variables ranked 40th among 126 variables according to an embodiment of the present invention.

126개의 모든 변수를 사용한 RF 모델을 훈련한 결과, 변수 중요도는 도 9와 같으며, 126개 변수 중에서 중요도가 0.6%를 초과하는 40위 변수까지 표현하였다. 변수 중요도를 살펴보면 nDSM(8개), NDVI(7개), LST(7개), SAVI(6개), Blue(6개), Green(4개), Red(1개), Rededge(1개) 영상 순으로 개수가 분포하였다. 1위부터 12위까지 nDSM과 NDVI가 차지하고 있으며, 13위부터는 다양한 영상과 통계 값이 함께 존재하고 있다. nDSM은 높이 값을 가지는 건물과 나무를 구분하고, NDVI는 식생과 비식생을 구분하는데 효과적인 것으로 판단된다. 식생지수의 경우 NDVI가 SAVI보다 중요도가 더 높은 특성을 보였으며, NDVI의 경우 산림, 초지, 가로수의 범위와 건물, 차도, 인도가 겹치는 구간이 적지만 SAVI는 NDVI보다 더 많은 범위가 중복되기 때문으로 판단된다. 16위부터 33위 사이에 LST가 분포하고 있으며, 훈련 데이터 특성에서도 나타났듯이, 건물, 차도, 인도 그룹과 산림, 초지, 가로수, 가로녹지 그룹, 물 그룹을 구분하는데 중요하게 사용되었을 것으로 판단된다. 종래기술들을 참조하면 대부분 다중분광 영상과 NDVI와 같은 식생지수를 주로 사용하였으나, 본 발명의 결과를 통해 도시지역 분류에서 LST 영상도 함께 사용될 수 있음을 시사한다. 그리고 단일 분광 파장 중에서 Blue 영상이 변수 중요도 중 가장 높은 순위를 차지하였는데, 이는 차도, 인도, 나지를 구분하기 위해 변수 중요도가 높게 나타난 것으로 판단된다. 변수 중요도에서 통계 값을 살펴보면 median(6개), PCT75(6개), mean(6개), NMS(5개), min(5개), majority(5개), max(4개), minority(3개) 순으로 개수가 분포하고 있다. nDSM은 median, PCT75, mean이 상위 순위로 나타났으며, NDVI는 mean, PCT75, medain이 상위 순위에 위치하였다. 가로수 및 가로녹지를 구분하기 위해 사용했던 NMS는 nDSM 및 Green 영상이 상위 순위에 위치하였다. As a result of training the RF model using all 126 variables, the variable importance is as shown in Figure 9, and among the 126 variables, the 40th ranked variable with an importance exceeding 0.6% was expressed. Looking at variable importance, nDSM (8), NDVI (7), LST (7), SAVI (6), Blue (6), Green (4), Red (1), Rededge (1) ) The number was distributed in video order. nDSM and NDVI occupy positions from 1st to 12th, and from 13th onwards, various images and statistical values exist together. nDSM is considered effective in distinguishing between buildings and trees with height values, and NDVI is effective in distinguishing between vegetation and non-vegetation. In the case of the vegetation index, NDVI showed higher importance than SAVI. In the case of NDVI, there is less overlap between the range of forests, grasslands, and street trees, and buildings, roads, and sidewalks, but SAVI overlaps more ranges than NDVI. It is judged as LSTs are distributed between 16th and 33rd places, and as shown in the training data characteristics, it is believed that they were important in distinguishing between the building, roadway, and sidewalk groups and the forest, grassland, street trees, street green space, and water groups. . Referring to prior technologies, most of them mainly used multispectral images and vegetation indices such as NDVI, but the results of the present invention suggest that LST images can also be used in urban area classification. And among single spectral wavelengths, the blue image ranked highest in variable importance, which is believed to be due to the high variable importance for distinguishing between driveways, sidewalks, and bare areas. Looking at the statistical values of variable importance, median (6), PCT75 (6), mean (6), NMS (5), min (5), majority (5), max (4), minority (3) The number is distributed in order. For nDSM, median, PCT75, and mean were ranked high, and for NDVI, mean, PCT75, and medain were ranked high. In NMS, which was used to distinguish street trees and street green space, nDSM and Green images were ranked high.

도 10은 본 발명의 일 실시예에 따른 대상지 전체 RF 모델 적용 결과를 나타내는 도면이다. Figure 10 is a diagram showing the results of applying the RF model to the entire target area according to an embodiment of the present invention.

도 10(a)는 126개 변수 적용 초기 모델을 나타내는 도면이고, 도 10(b)는 최적화 모델을 나타내는 도면이다. Figure 10(a) is a diagram showing an initial model applying 126 variables, and Figure 10(b) is a diagram showing an optimized model.

본 발명의 실시예에 따른 변수 중요도를 통해 nDSM, NDVI, SAVI, LST, Blue, Green의 6개 영상과 PCT75, mean, NSM, median, majority, max, min의 7개의 변수로 모델을 축소하여 최적화하고, 전체 대상지에 모델을 적용한 결과는 도 10과 같다. 126개 변수를 모두 사용한 모델을 통해 토지피복을 예측한 결과, 토지피복별 면적비율이 산림(19.2%), 차도(16.8%), 가로수(16.6%), 가로녹지(14.8%), 인도(13.5%), 건물(11.5%), 초지(5.3%), 나지(2.2%), 물(0.1%) 순이며, 변수 축소를 통해 최적화 모델에서는 산림(19.1%), 차도(17.6%), 가로녹지(16.4%), 가로수(14.7%), 인도(12.2%), 건물(11.6%), 초지(5.8%), 나지(2.5%), 물(0.1%)로 나타나 전반적인 면적 비율 차이가 인도를 제외하고 1% 미만으로 유사하였고, 변수를 축소하였음에도 불구하고 분류 결과에서 큰 변화가 나타나지 않았다.Optimized by reducing the model to 6 images of nDSM, NDVI, SAVI, LST, Blue, and Green and 7 variables of PCT75, mean, NSM, median, majority, max, and min through variable importance according to an embodiment of the present invention. And the results of applying the model to the entire target area are shown in Figure 10. As a result of predicting land cover through a model using all 126 variables, the area ratio by land cover was forest (19.2%), roadway (16.8%), street tree (16.6%), street green space (14.8%), and India (13.5%). %), buildings (11.5%), grassland (5.3%), bare ground (2.2%), and water (0.1%). In the optimization model through variable reduction, forest (19.1%), roadway (17.6%), and street green space were used. (16.4%), street trees (14.7%), sidewalks (12.2%), buildings (11.6%), grassland (5.8%), bare ground (2.5%), and water (0.1%), with the overall area ratio difference excluding India. It was similar at less than 1%, and despite reducing the variables, there was no significant change in the classification results.

정성적으로 토지피복 분류 결과를 판독해보면 산림과 가로수가 잘 구분되고 있는 것으로 나타났으며, 물의 경우 대상지 내에서 매우 작은 면적을 차지하여 훈련 데이터가 가장 적음에도 불구하고 매우 뚜렷하게 분류되는 것으로 나타났다. 인공피복 재질에서 건물과 차도가 잘 분류되는 것으로 나타났으며, 차도와 인도가 구분되어 분류되는 것을 확인하였지만 그림자가 존재하는 지역에서는 차도가 인도로 분류되는 경향이 있는 것으로 나타났다. 그림자는 원격탐사에서 정보 추출의 정확성을 저해시키는 주요 문제 중 하나로 추가 연구를 통해 그림자 감지 및 그림자 보정에 대한 연구가 필요할 것으로 판단된다. 그리고 산림 속에 있는 작은 산책로까지 인도로 분류되는 것으로 나타났으며, 그 주위의 초지가 가로녹지로 오분류되는 경향이 나타났다. 또한, 나지 영역이 인도로 분류되는 경향이 나타났다. When interpreting the land cover classification results qualitatively, it was found that forests and street trees were well distinguished, and in the case of water, it was found to be classified very clearly even though it occupied a very small area within the target area and had the least amount of training data. It was found that buildings and driveways were well classified from the artificial covering material, and it was confirmed that driveways and sidewalks were classified separately, but in areas where shadows existed, it was found that driveways tended to be classified as sidewalks. Shadows are one of the major problems that impede the accuracy of information extraction in remote sensing, and additional research on shadow detection and shadow correction is deemed necessary. In addition, even small trails in the forest were found to be classified as sidewalks, and the surrounding grassland tended to be misclassified as street green space. Additionally, there was a tendency for the Naji area to be classified as India.

본 발명의 실시예에 따른 정확도 검증 결과 모든 변수를 적용한 초기 모델의 Kappa 계수는 0.728, 전체 정확도는 76.0%로 산출되었다. 그리고 최적화 모델의 Kappa 계수는 0.721, 전체 정확도는 75.4%로 변수가 축소되었음에도 정확성이 크게 감소하지 않은 것으로 나타났다(Table 3, 4). 변수 최적화에 따른 사용자 정확도는 건물, 차도, 인도, 산림, 초지, 가로수, 가로녹지는 ±3% 이내로 초기 모델에 비해 큰 변화가 없는 것으로 나타났고, 물에서는 4.9%로 증가하였다. 그리고 초기 모델보다 인도를 나지로 더 예측하는 경향이 나타나면서 -13.8%만큼 정확도가 낮아지는 것으로 나타났다. 제작자 정확도의 경우 건물, 산림, 가로수, 나지, 물은 ±3% 이내로 기 모델에 비해 큰 변화가 없는 것으로 나타났다. 그리고 인도와 가로수의 제작자 정확도가 각각 -7.5%, -6.0%로 감소한 것에 반해 초지 및 차도가 각각 7.0%, 5.6% 증가하는 것으로 나타났다. 따라서, 정확도 변화를 살펴보았을 때, 변수 축소에 따라 건물, 산림, 가로수는 큰 영향을 받지 않는 것으로 나타났다. 이는 종래기술에서 건물과 나무의 분류 정확도를 확보하기 위해 nDSM과 NDVI를 사용하고 있으며, 입력 데이터로 nDSM을 사용했을 때 분류 결과의 양적 및 질적 분석에서 건물을 포함하여 여러 항목에 대한 개선을 보고하였다. 따라서, 본 발명에서도 변수 중요도에서 상위를 차지하고 있는 nDSM과 NDVI의 영향을 크게 받아 건물, 산림, 가로수는 변수 최적화에도 변화가 작은 것으로 판단된다. As a result of accuracy verification according to an embodiment of the present invention, the Kappa coefficient of the initial model to which all variables were applied was calculated to be 0.728, and the overall accuracy was calculated to be 76.0%. The Kappa coefficient of the optimization model was 0.721, and the overall accuracy was 75.4%, showing that the accuracy did not decrease significantly even though the variables were reduced (Tables 3 and 4). User accuracy according to variable optimization was found to be within ±3% for buildings, driveways, sidewalks, forests, grasslands, street trees, and street green spaces, showing no significant change compared to the initial model, and increased to 4.9% for water. And, as there was a tendency to predict India as Naji more than the initial model, the accuracy was found to be lowered by -13.8%. In the case of producer accuracy, buildings, forests, street trees, open fields, and water were within ±3%, showing no significant changes compared to the existing model. And while the maker accuracy of sidewalks and street trees decreased to -7.5% and -6.0%, respectively, grassland and driveways increased by 7.0% and 5.6%, respectively. Therefore, when examining the change in accuracy, it was found that buildings, forests, and street trees were not significantly affected by variable reduction. In the prior art, nDSM and NDVI are used to ensure classification accuracy for buildings and trees, and when nDSM was used as input data, improvements were reported for several items, including buildings, in quantitative and qualitative analysis of the classification results. . Therefore, in the present invention, it is judged that there is little change in variable optimization for buildings, forests, and street trees, largely influenced by nDSM and NDVI, which rank high in variable importance.

도 11은 본 발명의 일 실시예에 따른 대상지 내 인도의 보도블록 종류 예시를 나타내는 도면이다.Figure 11 is a diagram showing examples of types of sidewalk blocks on the sidewalk within the target site according to an embodiment of the present invention.

최적화 모델에서 사용자 및 제작자 정확도가 90% 이상인 항목은 건물과 물로 나타났으며, 건물은 앞서 언급하였듯이 nDSM의 영향이 큰 것으로 판단된다. 물은 앞서 도 8에 도시하였듯이 최적화 변수 중에서 LST가 다른 토지피복과 차이가 가장 많이 났으며, 박스 플롯이 겹치는 구간인 식생에 대해서는 NDVI로 인해 분류 정확도가 높은 것으로 판단된다. 차도와 인도의 경우 타연구와 같이 차도 및 인도를 합친 도로(road)로 분류하였을 때 제작자 정확도는 89.6%, 사용자 정확도는 80.0%로 나타나, 종래기술의 분류 정확도인 75 ~ 95% 범위로 비슷한 수준으로 나타났다. 하지만 인도를 과대 예측함에 따라 사용자 정확도가 65.7%로 낮게 나타났다. 이는 대상지 내의 인도를 구성하고 있는 블록이 도 11과 같이 베이지색, 붉은색, 초록색, 회색 등 다양한 색상을 골고루 포함하면서 분광 특성이 비슷한 나지를 인도로 오분류하는 경향이 나타나는 것으로 판단된다. 이에 따라 나지의 참조 데이터(reference data) 중 46%가 인도로 분류되면서 나지 제작자 정확도가 31.5%로 매우 낮게 평가되었다. 산림과 가로수를 합쳐서 나무(tree)로 정확도를 평가할 때는 사용자 정확도가 97.2%, 제작자 정확도가 96.3%로 높게 나타났으나, 산림과 가로수로 세분화하면 정확도가 감소하는 것으로 나타났다. 이는 두 항목간에 오분류가 발생하기 때문이며, 화면으로 판독하였을 때 나무의 그림자에 의해 영향이 있는 것으로 판단된다. 추후 보조 데이터로 임상도를 사용하면 이러한 오류를 개선시킬 수 있을 것으로 판단된다.In the optimization model, the items with user and producer accuracy of more than 90% were buildings and water, and as mentioned earlier, buildings are judged to have a large impact on nDSM. As shown in Figure 8, among the optimization variables, water had the greatest difference in LST from other land covers, and for vegetation, which is the section where the box plots overlap, the classification accuracy is judged to be high due to NDVI. In the case of driveways and sidewalks, when classified as a road that combines driveways and sidewalks as in other studies, the manufacturer's accuracy was 89.6% and the user's accuracy was 80.0%, which is similar to the classification accuracy of the prior art in the range of 75 to 95%. It appeared. However, as India was overpredicted, the user accuracy was low at 65.7%. This is believed to be due to the tendency to misclassify bare areas with similar spectral characteristics as sidewalks, as the blocks constituting the sidewalks in the target site contain a variety of colors such as beige, red, green, and gray, as shown in Figure 11. Accordingly, 46% of Naji's reference data was classified as India, and the Naji creator's accuracy was evaluated as very low at 31.5%. When evaluating accuracy by combining forests and street trees into trees, the user accuracy was high at 97.2% and the producer accuracy was 96.3%, but when subdivided into forests and street trees, the accuracy was found to decrease. This is because misclassification occurs between the two items, and it is judged to be influenced by the tree's shadow when read on the screen. It is believed that these errors can be improved by using clinical maps as auxiliary data in the future.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (14)

무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계;
상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계; 및
상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계
를 포함하는 도시 공간정보 매핑 방법.
Producing a multispectral image, a vegetation index image, and a terrain image through the sensor of an unmanned aerial vehicle;
Confirming images and variables for random forest-based land cover classification using the produced multispectral image, vegetation index image, and topographic image; and
Verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the confirmed images and variables
Urban spatial information mapping method including.
제1항에 있어서,
상기 무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 단계는,
레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(Near Infrared band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature)를 포함하는 정사영상을 제작하는
도시 공간정보 매핑 방법.
According to paragraph 1,
The step of producing multispectral images, vegetation index images, and terrain images through the sensors of the unmanned aerial vehicle,
Red, Green, Blue, Rededge, NIR band (Near Infrared band), DSM (Digital Surface Model), DEM (Digital Elevation model), and LST (Land Surface Temperature) Producing orthovideos containing
Urban spatial information mapping method.
제2항에 있어서,
상기 다중분광 영상을 이용하여 레드(Red) 및 NIR((Near Infrared) 파장 대역을 사용하고, 식생에 관한 지표인 NDVI(Normalized Difference Vegetation Index) 및 식물 피복이 미리 정해진 기준보다 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하기 위해 사용하는 지표인 SAVI(Soil Adjusted Vegetation Index)를 산출하며,
상기 SAVI는 토지피복 유형을 수용하기 위한 토양 밝기 보정 계수를 정의하고, 레드(Red)와 NIR 값 사이의 비율로 계산하고,
DSM(Digital Surface Model)에서 지물을 제외한 지면의 높이 값을 나타내는 DEM(Digital Elevation Model)과의 차연산을 통해, 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작하는
도시 공간정보 매핑 방법.
According to paragraph 2,
Using the multispectral image, Red and Near Infrared (NIR) wavelength bands are used, and NDVI (Normalized Difference Vegetation Index), which is an indicator of vegetation, and soil brightness in areas where plant cover is lower than a predetermined standard are measured. Calculates the Soil Adjusted Vegetation Index (SAVI), an indicator used to correct NDVI for impacts;
The SAVI defines a soil brightness correction factor to accommodate land cover types and is calculated as the ratio between Red and NIR values,
Through difference calculation with DEM (Digital Elevation Model), which represents the height value of the ground excluding features in DSM (Digital Surface Model), nDSM (normalized digital surface model) that represents only the elevation value of features excluding the ground is produced.
Urban spatial information mapping method.
제3항에 있어서,
상기 제작된 모든 영상은 다중분광 영상을 기준으로 리샘플링(resampling)되고, 제작된 모든 영상의 레이어들을 선형 밴드로 동일하게 리스케일링(rescaling)되며,
상기 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서 잠재적인 이상 값의 영향을 감소시키고, 동일한 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로써 공통된 값 범위로 정규화하며, 영상 분할을 진행하기 위한 하나의 래스터 이미지의 입력 데이터를 생성하기 위해 제작된 모든 영상을 병합하는 레이어 스택(layer stack) 프로세스를 진행하는
도시 공간정보 매핑 방법.
According to paragraph 3,
All the produced images are resampled based on the multispectral image, and the layers of all the produced images are equally rescaled into linear bands,
In the step of identifying images and variables for land cover classification, the impact of potential outliers is reduced, the relative size of numerical data is removed to reflect the same importance, normalized to a common value range, and image segmentation is performed. A layer stack process is performed to merge all produced images to generate input data for a single raster image.
Urban spatial information mapping method.
제1항에 있어서,
상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 단계는,
분광 특성의 유사도에 따라 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 각 객체를 생성하는 영상 분할을 통해 객체 기반 가중치 설정에 따라 객체 형태 및 크기를 변경하고,
인접 객체의 픽셀 그룹에 따라 평균 픽셀 값을 계산하여, 각 객체에 포함되어야 하는 픽셀을 결정하며,
분광 디테일(Spectral detail), 공간 디테일(Spatial detail) 및 최소 분할 사이즈(minium segment size)를 조정하여 객체 기반 가중치 설정함으로써 각 객체 생성을 조정하는
도시 공간정보 매핑 방법.
According to paragraph 1,
The step of confirming images and variables for random forest-based land cover classification using the produced multispectral image, vegetation index image, and topographic image is,
Through image segmentation, which creates each object by grouping individual pixels in raster data with specific shape characteristics according to the similarity of spectral characteristics, the object shape and size are changed according to object-based weight settings,
Calculate the average pixel value according to the pixel group of adjacent objects to determine which pixels should be included in each object,
Adjusts the creation of each object by setting object-based weights by adjusting spectral detail, spatial detail, and minimum segment size.
Urban spatial information mapping method.
제5항에 있어서,
상기 영상 분할을 통해 생성된 각 객체에 할당된 복수의 통계 값들을 이용하여 복수의 변수를 생성하고, 상기 복수의 변수의 중요도에 따라 복수의 변수를 최적화하는 랜덤 포레스트(Random forest) 기반 토지피복 분류를 수행함으로써 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water)을 포함하는 분류 항목으로 토지피복을 분류하는
도시 공간정보 매핑 방법.
According to clause 5,
Random forest-based land cover classification that generates a plurality of variables using a plurality of statistical values assigned to each object created through the image segmentation and optimizes the plurality of variables according to the importance of the plurality of variables. By performing, building, car road, sidewalk, forest, grass, street tree, street grass, bare soil, water ( classification of land cover into categories that include water.
Urban spatial information mapping method.
제1항에 있어서,
상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 단계는,
객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통해 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정하는
도시 공간정보 매핑 방법.
According to paragraph 1,
The step of verifying the accuracy of land cover classification based on unmanned aerial vehicle images using the confirmed images and variables is,
Producer's accuracy, user's accuracy, and overall accuracy are calculated through a confusion matrix that calculates accuracy by organizing the classification results of object items and actual items into a matrix.
Urban spatial information mapping method.
무인항공기의 센서를 통해 다중분광 영상, 식생지수 영상 및 지형 영상을 제작하는 영상 제작부;
상기 제작된 다중분광 영상, 식생지수 영상 및 지형 영상을 이용하여 랜덤 포레스트(Random forest) 기반 토지피복 분류를 위한 영상 및 변수를 확인하는 토지피복 분류부; 및
상기 확인된 영상 및 변수를 이용하여 무인항공기 영상 기반 토지피복 분류 정확도를 검증하는 정확도 검증부
를 포함하는 도시 공간정보 매핑 장치.
An image production department that produces multispectral images, vegetation index images, and terrain images using the sensors of unmanned aerial vehicles;
A land cover classification unit that identifies images and variables for random forest-based land cover classification using the produced multispectral images, vegetation index images, and topographic images; and
Accuracy verification unit that verifies the accuracy of land cover classification based on unmanned aerial vehicle images using the confirmed images and variables
An urban spatial information mapping device including a.
제8항에 있어서,
상기 영상 제작부는,
레드(Red), 그린(Green), 블루(Blue), 레드 에지(Rededge), NIR 밴드(Near Infrared band)와 DSM(Digital Surface Model), DEM(Digital Elevation model) 및 LST(Land Surface Temperature)를 포함하는 정사영상을 제작하는
도시 공간정보 매핑 장치.
According to clause 8,
The video production department,
Red, Green, Blue, Rededge, NIR band (Near Infrared band), DSM (Digital Surface Model), DEM (Digital Elevation model), and LST (Land Surface Temperature) Producing orthovideos containing
Urban spatial information mapping device.
제9항에 있어서,
상기 영상 제작부는,
상기 다중분광 영상을 이용하여 레드(Red) 및 NIR((Near Infrared) 파장 대역을 사용하고, 식생에 관한 지표인 NDVI(Normalized Difference Vegetation Index) 및 식물 피복이 미리 정해진 기준보다 낮은 지역에서 토양 밝기의 영향에 대한 NDVI를 수정하기 위해 사용하는 지표인 SAVI(Soil Adjusted Vegetation Index)를 산출하며,
상기 SAVI는 토지피복 유형을 수용하기 위한 토양 밝기 보정 계수를 정의하고, 레드(Red)와 NIR 값 사이의 비율로 계산하고,
DSM(Digital Surface Model)에서 지물을 제외한 지면의 높이 값을 나타내는 DEM(Digital Elevation Model)과의 차연산을 통해, 지면을 제외하고 지물의 표고 값만을 나타내는 nDSM(normalized digital surface model)을 제작하는
도시 공간정보 매핑 장치.
According to clause 9,
The video production department,
Using the multispectral image, Red and Near Infrared (NIR) wavelength bands are used, and NDVI (Normalized Difference Vegetation Index), which is an indicator of vegetation, and soil brightness in areas where plant cover is lower than a predetermined standard are measured. Calculates the Soil Adjusted Vegetation Index (SAVI), an indicator used to correct NDVI for impacts;
The SAVI defines a soil brightness correction factor to accommodate land cover types and is calculated as the ratio between Red and NIR values,
Through difference calculation with DEM (Digital Elevation Model), which represents the height value of the ground excluding features in DSM (Digital Surface Model), nDSM (normalized digital surface model) that represents only the elevation value of features excluding the ground is produced.
Urban spatial information mapping device.
제10항에 있어서,
상기 영상 제작부는,
상기 제작된 모든 영상은 다중분광 영상을 기준으로 리샘플링(resampling)되고, 제작된 모든 영상의 레이어들을 선형 밴드로 동일하게 리스케일링(rescaling)되며,
상기 토지피복 분류를 위한 영상 및 변수를 확인하는 단계에서 잠재적인 이상 값의 영향을 감소시키고, 동일한 중요도로 반영되기 위해 수치형 데이터의 상대적 크기를 제거함으로써 공통된 값 범위로 정규화하며, 영상 분할을 진행하기 위한 하나의 래스터 이미지의 입력 데이터를 생성하기 위해 제작된 모든 영상을 병합하는 레이어 스택(layer stack) 프로세스를 진행하는
도시 공간정보 매핑 장치.
According to clause 10,
The video production department,
All the produced images are resampled based on the multispectral image, and the layers of all the produced images are equally rescaled into linear bands,
In the step of identifying images and variables for land cover classification, the impact of potential outliers is reduced, the relative size of numerical data is removed to reflect the same importance, normalized to a common value range, and image segmentation is performed. A layer stack process is performed to merge all produced images to generate input data for a single raster image.
Urban spatial information mapping device.
제8항에 있어서,
상기 토지피복 분류부는,
분광 특성의 유사도에 따라 특정 형태 특성을 가지는 래스터 데이터 내의 개별 픽셀들을 그룹화하여 각 객체를 생성하는 영상 분할을 통해 객체 기반 가중치 설정에 따라 객체 형태 및 크기를 변경하고,
인접 객체의 픽셀 그룹에 따라 평균 픽셀 값을 계산하여, 각 객체에 포함되어야 하는 픽셀을 결정하며,
분광 디테일(Spectral detail), 공간 디테일(Spatial detail) 및 최소 분할 사이즈(minium segment size)를 조정하여 객체 기반 가중치 설정함으로써 각 객체 생성을 조정하는
도시 공간정보 매핑 장치.
According to clause 8,
The land cover classification department,
Through image segmentation, which creates each object by grouping individual pixels in raster data with specific shape characteristics according to the similarity of spectral characteristics, the object shape and size are changed according to object-based weight settings,
Calculate the average pixel value according to the pixel group of adjacent objects to determine which pixels should be included in each object,
Adjusts the creation of each object by setting object-based weights by adjusting spectral detail, spatial detail, and minimum segment size.
Urban spatial information mapping device.
제12항에 있어서,
상기 토지피복 분류부는,
상기 영상 분할을 통해 생성된 각 객체에 할당된 복수의 통계 값들을 이용하여 복수의 변수를 생성하고, 상기 복수의 변수의 중요도에 따라 복수의 변수를 최적화하는 랜덤 포레스트(Random forest) 기반 토지피복 분류를 수행함으로써 건물(building), 차도(car road), 인도(sidewalk), 산림(forest), 초지(grass), 가로수(street tree), 가로녹지(street grass), 나지(bare soil), 물(water)을 포함하는 분류 항목으로 토지피복을 분류하는
도시 공간정보 매핑 장치.
According to clause 12,
The land cover classification department,
Random forest-based land cover classification that generates a plurality of variables using a plurality of statistical values assigned to each object created through the image segmentation and optimizes the plurality of variables according to the importance of the plurality of variables. By performing, building, car road, sidewalk, forest, grass, street tree, street grass, bare soil, water ( classification of land cover into categories that include water.
Urban spatial information mapping device.
제8항에 있어서,
상기 정확도 검증부는,
객체 항목의 분류 결과와 실제 항목을 행렬로 구성하여 정확도를 계산하는 오차 행렬(confusion matrix)을 통해 생산자정확도(Producer's accuracy) 및 사용자정확도(User's accuracy), 전체정확도(Overall acuuracy)를 각각 산정하는
도시 공간정보 매핑 장치.
According to clause 8,
The accuracy verification unit,
Producer's accuracy, user's accuracy, and overall accuracy are calculated through a confusion matrix that calculates accuracy by organizing the classification results of object items and actual items into a matrix.
Urban spatial information mapping device.
KR1020220039573A 2022-03-30 2022-03-30 UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus KR20230140832A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220039573A KR20230140832A (en) 2022-03-30 2022-03-30 UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220039573A KR20230140832A (en) 2022-03-30 2022-03-30 UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus

Publications (1)

Publication Number Publication Date
KR20230140832A true KR20230140832A (en) 2023-10-10

Family

ID=88292528

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220039573A KR20230140832A (en) 2022-03-30 2022-03-30 UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus

Country Status (1)

Country Link
KR (1) KR20230140832A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437164A (en) * 2023-11-08 2024-01-23 武汉大势智慧科技有限公司 Three-dimensional model texture enhancement method and device, electronic equipment and medium
KR102630133B1 (en) * 2023-11-07 2024-01-30 주식회사 포도 Method for measuring phenotype of plants using the images
CN117611909A (en) * 2023-12-04 2024-02-27 桂林理工大学 Wetland vegetation classification method based on deep learning and image spatial resolution
CN117787813A (en) * 2024-02-23 2024-03-29 中国农业科学院农业资源与农业区划研究所 Fine-granularity feature constraint-based urban village identification method and device and electronic equipment
CN117787813B (en) * 2024-02-23 2024-05-31 中国农业科学院农业资源与农业区划研究所 Fine-granularity feature constraint-based urban village identification method and device and electronic equipment

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
[1] USGS,https://www.usgs.gov/landsat-missions/landsat-soil-adjusted-vegetation-index (archived on 22th December 2021)
[2] Kindu, M.; Schneider, T.; Teketay, D.; Knoke, T. Land Use/Land Cover Change Analysis Using Object-Based Classification Approach in Munessa-Shashemene Landscape of the Ethiopian Highlands. Remote Sens. 2013, 5, 2411-2435. https://doi.org/10.3390/rs5052411
[3] Dronova, I.; Gong, P.; Wang, L. Object-based analysis and change detection of major wetland cover types and their classification uncertainty during the low water period at Poyang Lake, China. Remote Sens. Environ 2011, 115, 3220-3236. https://doi.org/10.1016/j.rse.2011.07.006
[4] Zhou, W.; Troy, A. An object-oriented approach for analysing and characterizing urban landscape at the parcel level. Int. J. Remote Sens. 2008, 29, 3119-3135. https://doi.org/10.1080/01431160701469065
[5] 42. Qian, Y.; Zhou, W.; Yan, J.; Li, W.; Han, L. Comparing Machine Learning Classifiers for Object-Based Land Cover Classification Using Very High Resolution Imagery. Remote Sens. 2015, 7, 153-168. https://doi.org/10.3390/rs70100153
[6] Breiman, L. Random forests. Mach. Learn. 2001, 45, 5-32. https://doi.org/10.1023/A:1010933404324

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102630133B1 (en) * 2023-11-07 2024-01-30 주식회사 포도 Method for measuring phenotype of plants using the images
CN117437164A (en) * 2023-11-08 2024-01-23 武汉大势智慧科技有限公司 Three-dimensional model texture enhancement method and device, electronic equipment and medium
CN117611909A (en) * 2023-12-04 2024-02-27 桂林理工大学 Wetland vegetation classification method based on deep learning and image spatial resolution
CN117787813A (en) * 2024-02-23 2024-03-29 中国农业科学院农业资源与农业区划研究所 Fine-granularity feature constraint-based urban village identification method and device and electronic equipment
CN117787813B (en) * 2024-02-23 2024-05-31 中国农业科学院农业资源与农业区划研究所 Fine-granularity feature constraint-based urban village identification method and device and electronic equipment

Similar Documents

Publication Publication Date Title
Keshtkar et al. Land-cover classification and analysis of change using machine-learning classifiers and multi-temporal remote sensing imagery
Mui et al. An object-based approach to delineate wetlands across landscapes of varied disturbance with high spatial resolution satellite imagery
KR20230140832A (en) UAV and Artificial intelligence-based urban spatial information mapping Method and Apparatus
Duro et al. A comparison of pixel-based and object-based image analysis with selected machine learning algorithms for the classification of agricultural landscapes using SPOT-5 HRG imagery
Mallinis et al. Object-based classification using Quickbird imagery for delineating forest vegetation polygons in a Mediterranean test site
CN107330413B (en) A kind of mother drug plants recognition methods based on remote sensing technology
Jung et al. A framework for land cover classification using discrete return LiDAR data: Adopting pseudo-waveform and hierarchical segmentation
CN103364781A (en) Remote sensing data and geographical information system-based grainfield ground reference point screening method
Liu et al. Pattern identification and analysis for the traditional village using low altitude UAV-borne remote sensing: Multifeatured geospatial data to support rural landscape investigation, documentation and management
Alexander et al. Regional-scale mapping of tree cover, height and main phenological tree types using airborne laser scanning data
Berveglieri et al. Successional stages and their evolution in tropical forests using multi-temporal photogrammetric surface models and superpixels
Chen et al. Land cover mapping in urban environments using hyperspectral APEX data: A study case in Baden, Switzerland
Pina et al. Accurate determination of surface reference data in digital photographs in ice-free surfaces of Maritime Antarctica
Dashpurev et al. A cost-effective method to monitor vegetation changes in steppes ecosystems: A case study on remote sensing of fire and infrastructure effects in eastern Mongolia
Johansen et al. Mapping banana plantations from object-oriented classification of SPOT-5 imagery
Yılmaz et al. Object-based classification of Izmir Metropolitan City by using Sentinel-2 images
Cömert et al. Rapid mapping of forested landslide from ultra-high resolution unmanned aerial vehicle data
Zhang Native vegetation classification using remote sensing techniques: A case study of dairy flat regrowth bush by using the AUT unmanned aerial vehicle
Nimbalkar et al. Optimal band configuration for the roof surface characterization using hyperspectral and LiDAR imaging
Tsendbazar Object based image analysis of geo-eye VHR data to model above ground carbon stock in Himalayan mid-hill forests, Nepal
Li et al. Measuring detailed urban vegetation with multisource high-resolution remote sensing imagery for environmental design and planning
Forghani et al. Extracting terrain categories from multi-source satellite imagery
Dinis et al. Hierarchical object-based classification of dense urban areas by integrating high spatial resolution satellite images and lidar elevation data
Franklin et al. Approaches for monitoring landscape composition and pattern using remote sensing
Su et al. A hierarchical object oriented method for land cover classification of SPOT 5 imagery