KR101924278B1 - Apparatus and method for extraction of tidal creeks in tidal flat zones using drone - Google Patents

Apparatus and method for extraction of tidal creeks in tidal flat zones using drone Download PDF

Info

Publication number
KR101924278B1
KR101924278B1 KR1020170021185A KR20170021185A KR101924278B1 KR 101924278 B1 KR101924278 B1 KR 101924278B1 KR 1020170021185 A KR1020170021185 A KR 1020170021185A KR 20170021185 A KR20170021185 A KR 20170021185A KR 101924278 B1 KR101924278 B1 KR 101924278B1
Authority
KR
South Korea
Prior art keywords
image
water
extracting
unit
gradient
Prior art date
Application number
KR1020170021185A
Other languages
Korean (ko)
Other versions
KR20180094702A (en
Inventor
이재빈
허용
Original Assignee
목포대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 목포대학교산학협력단 filed Critical 목포대학교산학협력단
Priority to KR1020170021185A priority Critical patent/KR101924278B1/en
Publication of KR20180094702A publication Critical patent/KR20180094702A/en
Application granted granted Critical
Publication of KR101924278B1 publication Critical patent/KR101924278B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치는, DGPS(Differential Global Positioning System) 측량 결과를 이용하여 갯벌 지역의 지상기준점 측량을 수행하기 위한 지상기준점 측량부, 항공삼각측량을 위해서, 일정 시간 간격으로 갯벌 지역에 대한 항공영상을 촬영하기 위한 드론, 촬영된 항공영상을 이용하여 수치표면모형을 생성하기 위한 수치표면모형 생성부, 생성된 수치표면모형 및 측량된 지상기준점을 이용하여 정사영상을 생성하기 위한 정사영상 생성부, 생성된 정사영상에서 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성하기 위한 그래디언트 영상 생성부, 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하기 위한 영상 조각 분할부, 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각을 병합하기 위한 영상 조각 병합부, 영상 조각 병합부를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하기 위한 수계 판별 기준 학습부, 학습된 수계 판별 기준을 이용하여, 획득된 영상 조각들에서 수계 지역을 구분하고, 구분된 수계 지역의 영상 조각들을 객체 인접성 분석을 통하여 병합하여, 수계 경계를 추출하기 위한 수계 경계 추출부 및 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출하기 위한 갯벌 등고선 추출부를 포함할 수 있다.The apparatus for extracting the tugboat information in the tidal-flat area using the drone according to an embodiment of the present invention includes a ground reference point surveying unit for performing the ground reference point survey of the tidal flat area using the DGPS (Differential Global Positioning System) For the purpose of triangulation, a drone for capturing aerial images of a tidal flat area at regular intervals, a numerical surface model generating unit for generating a numerical surface model using aerial images taken, a generated numerical surface model, A gradient image generating unit for generating a gradient image by using a difference in brightness value between adjacent pixels in the generated orthoimage image, a gradient image generating unit for generating a gradient image using the generated gradient image, An image segmentation unit for dividing the image into a plurality of image segments by applying a watershed algorithm to the image, For each piece, if the spectral characteristics of adjacent image pieces are equal to or greater than a certain degree of similarity, the image piece merging unit for merging the adjacent image pieces and the characteristics of the pixels constituting each piece of the image pieces obtained through the image piece merging unit are extracted The proposed method is based on the recognition criteria of the water based classification criterion for learning the water classification criterion and classifies the water area in the acquired image fragments by using the learned water classification criterion and merges the image fragments of the separated water area with the object adjacency analysis And a tidal flat contour extracting unit for extracting a contour line of the tidal flat area by superimposing the extracted water boundary on a time basis.

Description

드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법{APPARATUS AND METHOD FOR EXTRACTION OF TIDAL CREEKS IN TIDAL FLAT ZONES USING DRONE}[0001] APPARATUS AND METHOD FOR EXTRACTION OF TIDAL CREEK IN TIDAL FLAT ZONES USING DRONE [0002]

본 발명은 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법에 관한 것으로서, 드론을 활용하여 갯벌 지역에 대하여 항공삼각측량을 실시하고, 항공삼각측량 결과를 이용하여 수치표면모형 및 정상영상을 획득하고, 획득된 수치표면모형 및 정사영상의 화소들의 특징을 분석하고, 분할, 병합하여 갯골 정보를 획득하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for extracting tidal information in a tidal flat area using a dron. A tidal flat area is measured by using a drone, and a numerical surface model and a normal image The present invention relates to an apparatus and method for extracting tex1 information in a tidal flat area using a dron which obtains texel information by analyzing the features of the obtained numerical surface model and orthoimage image, and dividing and merging the features.

최근 드론 기체 기술의 발전과 영상처리 기술의 발전에 힘입어 원격탐사 분야에서 드론을 활용하여 지형정보를 제작하고 활용하는 사례가 증대되고 있다. 특히, 드론을 이용하여 지형정보를 구축할 경우 상대적으로 저렴한 비용으로 원하는 지역에 대하여 원하는 시기에 수 센티미터 정도의 해상도를 가지는 고해상도의 원격탐사 데이터를 구축할 수 있다는 장점을 가지고 있다.Recently, thanks to the development of drone technology and the development of image processing technology, there are increasing cases of making and using topographical information by using drone in remote sensing field. In particular, when the terrain information is constructed using the drone, it is possible to construct a high-resolution remote sensing data having a resolution of several centimeters at a desired time in a desired area at a relatively low cost.

또한, 드론을 이용한 원격탐사는 기존의 항공기나 위성을 활용한 원격탐사에 비해 대상지역에 대한 촬영이 용이하며 기체를 원하는 지역으로 조정하기가 용이하고 구름의 영향을 받지 않는 고도에서 촬영이 가능하다는 장점을 가지고 있다. 다만, 드론을 이용하기 때문에, 배터리 용량의 제한에 의한 촬영면적의 제한, 탑재체의 무게 제한에 따르는 카메라 성능의 제한, 대용량 데이터의 처리의 어려움, 지상기준점 취득의 어려움이 발생할 수 있다. 그럼에도 불구하고, 기존의 원격탐사에서는 활용하기 어려운 분야에서의 드론이 가지는 장점 때문에, 드론을 활용한 원격탐사는 점차 증대되고 있다. 이러한 사례는 문화재 모니터링, 산림 및 농작물 모니터링, 적조나 녹조 모니터링, 교통 관제를 위한 감시, 재난지역 모니터링, 수치지도 및 지적도 제작 등에서 찾아볼 수 있다.In addition, remote sensing using a drone is easier than shooting with a conventional aircraft or satellite, and it is easy to adjust the gas to a desired region and can be taken at an altitude that is not influenced by clouds It has advantages. However, because of the use of the drone, it is possible to limit the camera area due to limitation of the battery capacity, limit the camera performance according to the weight limitation of the payload, difficulty in processing large capacity data, and difficulty in acquiring the ground reference point. Nevertheless, because of the advantages of drones in areas that are difficult to use in conventional remote sensing, remote sensing using drones is increasing. Examples include cultural property monitoring, forest and crop monitoring, red tide and greenery monitoring, monitoring for traffic control, disaster area monitoring, digital mapping and cadastral mapping.

이에 연안 해양측량 분야에서도 드론을 이용한 원격탐사를 적용하고자 하는 시도가 점차 증대되고 있다. 연안 해양측량은 해안선측량, 해안선변화 모니터링, 수심측량, 갯벌 측량, 적조 모니터링 등의 영역을 포함하는데, 이 중 갯벌의 경우 최근 사회적 관심이 고조됨에 따라 다양한 연구가 진행되고 있으며 이를 바탕으로 건강한 갯벌에 대한 보존방안과 복원 및 활용에 대한 지침이 마련되고 있다. 특히 대조차 해안인 서해안의 경우 조석에 의한 해수면 주기적인 변화와 계절별로 내습하는 파랑의 영향, 해안의 인위적인 구조물의 건설 등에 의해 갯벌의 침식현상 및 피해가 지속적으로 발생함에 따라 주기적인 모니터링의 필요성이 꾸준히 제기되어 왔다. 또한 갯벌에서 바닷물이 드나드는 물길을 따라 형성되는 갯골의 경우 매년 해양안전사고의 절반이상을 차지하는 익사사고의 주요 발생지점이기 때문에, 다양한 지역과 현황에 대해 갯골 정보를 포함한 지형자료를 구축하고 감시할 필요성이 제기되고 있다.In the coastal marine surveying field, there is an increasing tendency to apply remote sensing using drone. Coastal marine survey includes areas such as coastal survey, coastal change monitoring, water depth survey, tidal flat survey, and red tide monitoring. Among these tidal flats, various studies have been conducted due to the recent social interest, Guidelines for conservation and restoration and utilization are being prepared. Especially, in case of coastal west coast, the necessity of periodic monitoring is constantly evolving as the tidal-flat erosion phenomenon and damage are continuously caused by the periodic change of sea level by tide, the influence of wave invasion by seasons, Has been raised. In addition, since the tidal flats formed along the waterways in and around the tidal flats are the main points of occurrence of drowning accidents, which account for more than half of the marine safety accidents every year, construction and monitoring of terrain data, including tidal information, There is a need.

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로, 드론을 활용하여 갯벌 지역에 대하여 항공삼각측량을 실시하고, 항공삼각측량 결과를 이용하여 수치표면모형 및 정상영상을 획득하고, 획득된 수치표면모형 및 정사영상의 화소들의 특징을 분석하고, 분할, 병합하여 갯골 정보를 획득하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been developed to solve the above-mentioned problems. The present invention provides an aerial triangulation method for a tidal flat area using a drone, obtains a numerical surface model and a normal image using the aerial triangulation results, The object of the present invention is to provide an apparatus and a method for extracting tibia information in a tidal flat area using a dron which analyzes the characteristics of pixels of a surface model and an orthoimage and divides and merges the tibia information to acquire the tibia information.

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치는, DGPS(Differential Global Positioning System) 측량 결과를 이용하여 갯벌 지역의 지상기준점 측량을 수행하기 위한 지상기준점 측량부, 항공삼각측량을 위해서, 일정 시간 간격으로 갯벌 지역에 대한 항공영상을 촬영하기 위한 드론, 촬영된 항공영상을 이용하여 수치표면모형을 생성하기 위한 수치표면모형 생성부, 생성된 수치표면모형 및 측량된 지상기준점을 이용하여 정사영상을 생성하기 위한 정사영상 생성부, 생성된 정사영상에서 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성하기 위한 그래디언트 영상 생성부, 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하기 위한 영상 조각 분할부, 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각을 병합하기 위한 영상 조각 병합부, 영상 조각 병합부를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하기 위한 수계 판별 기준 학습부, 학습된 수계 판별 기준을 이용하여, 획득된 영상 조각들에서 수계 지역을 구분하고, 구분된 수계 지역의 영상 조각들을 객체 인접성 분석을 통하여 병합하여, 수계 경계를 추출하기 위한 수계 경계 추출부 및 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출하기 위한 갯벌 등고선 추출부를 포함할 수 있다.The apparatus for extracting the tugboat information in the tidal-flat area using the drone according to an embodiment of the present invention includes a ground reference point surveying unit for performing the ground reference point survey of the tidal flat area using the DGPS (Differential Global Positioning System) For the purpose of triangulation, a drone for capturing aerial images of a tidal flat area at regular intervals, a numerical surface model generating unit for generating a numerical surface model using aerial images taken, a generated numerical surface model, A gradient image generating unit for generating a gradient image by using a difference in brightness value between adjacent pixels in the generated orthoimage image, a gradient image generating unit for generating a gradient image using the generated gradient image, An image segmentation unit for dividing the image into a plurality of image segments by applying a watershed algorithm to the image, For each piece, if the spectral characteristics of adjacent image pieces are equal to or greater than a certain degree of similarity, the image piece merging unit for merging the adjacent image pieces and the characteristics of the pixels constituting each piece of the image pieces obtained through the image piece merging unit are extracted The proposed method is based on the recognition criteria of the water based classification criterion for learning the water classification criterion and classifies the water area in the acquired image fragments by using the learned water classification criterion and merges the image fragments of the separated water area with the object adjacency analysis And a tidal flat contour extracting unit for extracting a contour line of the tidal flat area by superimposing the extracted water boundary on a time basis.

또한, 영상 조각 분할부는, 생성된 그래디언트 영상에 스케일 레벨(scale level)을 적용하여 임계값을 결정하고, 결정된 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 결정된 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점을 이용하여 복수의 영상 조각으로 분할할 수 있다.In addition, the image fragment dividing unit may determine a threshold value by applying a scale level to the generated gradient image, and calculate a gradation value higher than the determined threshold value without considering a local minimum point having a gradient value lower than the determined threshold value The image can be divided into a plurality of image pieces using the local minimum point having the smallest point.

또한, 영상 조각 병합부는, 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 측정된 유사도를 소정의 임계값과 비교하여 소정의 임계값보다 큰 유사도를 가지는 영상 조각들을 병합할 수 있다.The image fragment merging unit may calculate an average spectral vector of a plurality of segmented image segments, measure the similarity, compare the measured similarity with a predetermined threshold value, and merge the image segments having a degree of similarity larger than a predetermined threshold value .

또한, 수계 기준 학습부는, 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습할 수 있다.In addition, the water-based reference learning unit may extract at least one of the average brightness value, the area, and the texture property of the pixels constituting each piece, and analyze the water based criterion by analyzing using the supervisory classification method.

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법은, DGPS(Differential Global Positioning System) 측량을 통하여 갯벌 지역의 지상기준점 측량을 수행하는 단계, 항공삼각측량을 위해서, 드론을 활용하여 일정 시간 간격으로 갯벌 지역에 대한 항공영상을 촬영하는 단계, 촬영된 항공영상을 이용하여 수치표면모형 및 정사영상을 생성하는 단계, 정사영상에서 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성하는 단계, 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하는 단계, 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각들을 병합하는 단계, 병합 단계를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하는 단계, 학습된 수계 판별 기준을 이용하여, 획득된 영상 조각들에서 수계 지역을 구분하고, 구분된 수계 지역의 영상 조각들을 객체 인접성 분석을 통하여 병합하여 수계 경계를 추출하는 단계 및 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출하는 단계를 포함할 수 있다.The method of extracting the tugboat information in the tidal flat area using the dron according to an embodiment of the present invention includes the steps of performing a ground reference point survey of the tidal flat area through a DGPS (Differential Global Positioning System) survey, A step of capturing an aerial image of a tidal flat area at a predetermined time interval using the captured aerial image, a step of generating a numerical surface model and an orthographic image using the aerial image taken, dividing the generated gradient image into a plurality of image segments by applying a watershed algorithm to the generated gradient image, and if the spectral characteristics of adjacent image segments are equal to or greater than a certain degree of similarity Merging adjacent image fragments, combining the image fragments obtained through the merging step, Extracting and analyzing the characteristics of the pixels constituting the image, and learning the water classification criterion. Using the learned water classification criterion, the water region is divided into the acquired image fragments, Extracting the boundary of the water system by merging through the analysis, and extracting the contour line of the tidal flat area by superimposing the extracted water system boundary on a time basis.

또한, 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하는 단계는, 생성된 그래디언트 영상에 스케일 레벨(scale level)을 적용하여 임계값을 결정하고, 결정된 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 결정된 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점을 이용하여 복수의 영상 조각으로 분할하는 단계를 포함할 수 있다.The step of dividing the generated gradient image into a plurality of image segments by applying a watershed algorithm may include the steps of determining a threshold value by applying a scale level to the generated gradient image, And dividing the image into a plurality of image pieces using a local minimum point having a gradient value higher than the determined threshold without considering a local minimum point having a gradient value.

또한, 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각들을 병합하는 단계는, 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 측정된 유사도를 소정의 임계값과 비교하여 소정의 임계값보다 큰 유사도를 가지는 영상 조각들을 병합하는 단계를 포함할 수 있다.If the spectral characteristics of adjacent image segments are equal to or greater than a certain degree of similarity for each of the plurality of image segments, the step of merging adjacent image segments may include calculating an average spectral vector of the plurality of segmented image segments, And comparing the similarity to a predetermined threshold value to merge the image pieces having a degree of similarity larger than a predetermined threshold value.

또한, 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하는 단계는, 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습하는 단계를 포함할 수 있다.Also, the step of extracting and analyzing the characteristics of the pixels constituting each piece and learning the water classification criterion may include extracting at least one of the average brightness value, the area and the texture characteristic of the pixels constituting each piece, And a step of learning the water classification criterion.

한편, 본 발명의 일 실시예로써, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.Meanwhile, as an embodiment of the present invention, a computer-readable recording medium on which a program for causing the computer to execute the above-described method may be provided.

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법에 따르면, 회전익 드론 및 카메라를 활용하여 수치표면모형 및 정사영상을 획득할 수 있다. According to an apparatus and method for extracting tex1 information in a tidal flat area using a dron according to an embodiment of the present invention, a numerical surface model and an orthoimage can be obtained by using a rotor blade dron and a camera.

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치 및 방법에 따르면, 연안 지역에서의 지형 정보를 경제적이면서도 효율적으로 추출하여, 갯벌에서 중요한 지형요소인 갯골 정보를 획득할 수 있다.According to the apparatus and method for extracting the tugboat information in the tidal flat area utilizing the drones according to the embodiment of the present invention, it is possible to economically and efficiently extract the terrain information in the coastal area and acquire the tugboat information, .

도 1은 본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치(1000)의 구성을 나타낸 블록도이다
도 2는 본 발명의 일 실시예에 따른 회전익 드론(20)과 카메라(22)를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 드론의 항공영상 촬영 지역인 전라남도 무안군 청계면 완산리에 위치한 연안지역을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 드론의 비행 경로를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 드론(20)을 활용한 갯벌 지역에 대한 항공삼각측량의 작업순서도를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 촬영 회차 별(총 4회)로 생성된 정사영상 및 수치표면모형(DSM)을 나타낸 도면이다.
도 7의 (a)는 본 발명의 일 실시예에 따른 지표면의 정사영상을 나타낸 도면이고, 도 7의 (b)는 지표면의 정사영상을 이용하여 생성된 그래디언트 영상을 나타낸 도면이다.
도 8의 (a)는 본 발명의 일 실시예에 따른 그래디언트 영상의 화소의 밝기값 차이(그래디언트 연산값)을 높이로 나타낸 도면이고, 도 8의 (b)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 watershed 알고리즘을 적용하여 영역들(영역 1 및 영역 2)을 추출하는 과정을 나타낸 도면이다.
도 9의 (a)는 본 발명의 일 실시예에 따른 그래디언트 영상을 나타낸 도면이고, 도 9의 (b)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 높은 스케일 레벨을 적용하여 watershed 알고리즘을 적용한 도면이고, 도 9의 (c)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 낮은 스케일 레벨을 적용하여 watershed 알고리즘을 적용한 도면이다.
도 10은 본 발명의 일 실시예에 따른 갯벌 지역의 그래디언트 영상에 스케일 레벨 50%을 적용하여 watershed 알고리즘으로 영상 조각을 분할한 결과를 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 watershed 알고리즘 적용한 후 유사도를 측정하여 상위 70%에 해당하는 유사도(merge level 70%)를 가지는 영상 조각들을 병합한 결과를 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 수계 경계 추출부(90)에 의해 추출된 수계 경계를 시간대별(일정 시간 간격)로 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 시간대별 수계 경계를 중첩하여 얻어진 갯벌 지역 등고선의 분포를 나타낸 도면이다.
도 14는 본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법을 나타낸 순서도이다.
1 is a block diagram showing a configuration of an apparatus 1000 for extracting tex1 information in a tidal area using a dron according to an embodiment of the present invention
2 is a view showing a rotor blade dron 20 and a camera 22 according to an embodiment of the present invention.
FIG. 3 is a view showing a coastal area located at Wansanri, Cheonggye-myeon, Muan-gun, Jeollanam-do, which is an aerial photographing area of a dron according to an embodiment of the present invention.
4 is a view illustrating a flight path of a drones according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating an operation of aerial triangulation with respect to a tidal flat area utilizing the drones 20 according to an embodiment of the present invention.
FIG. 6 is a diagram showing an orthoimage image and a numerical surface model (DSM) generated by photographing times (four times in total) according to an embodiment of the present invention.
FIG. 7A is an orthoimage image of the ground surface according to an embodiment of the present invention, and FIG. 7B is a diagram illustrating a gradient image generated by using an orthoimage image of the ground surface.
FIG. 8A is a diagram illustrating a height difference (gradation operation value) of a pixel of a gradient image according to an exemplary embodiment of the present invention, and FIG. 8B is a diagram illustrating a gradient value according to an exemplary embodiment of the present invention (Region 1 and region 2) by applying a watershed algorithm in a gradient image.
9A is a view showing a gradient image according to an embodiment of the present invention. FIG. 9B is a diagram illustrating a gradient image according to an exemplary embodiment of the present invention, in which a watershed algorithm is applied by applying a high- 9C is a diagram illustrating a watershed algorithm applying a low scale level to a gradient image according to an exemplary embodiment of the present invention.
10 is a view showing a result of dividing an image fragment into a watershed algorithm by applying a scale level of 50% to a gradient image of a tidal flat area according to an embodiment of the present invention.
FIG. 11 is a diagram showing a result of merging image fragments having a similarity level (merge level 70%) corresponding to the upper 70% by measuring similarity after applying the watershed algorithm according to an embodiment of the present invention.
FIG. 12 is a diagram showing the boundaries of the water boundaries extracted by the water boundary extracting unit 90 according to an embodiment of the present invention, by time (time interval).
FIG. 13 is a diagram showing the distribution of tidal area contour lines obtained by superimposing a water boundary at each time point according to an embodiment of the present invention.
14 is a flowchart illustrating a method of extracting tibia information in a tidal flat area using a dron according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When an element is referred to as " including " an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms " part, " " module, " and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software . In addition, when a part is referred to as being "connected" to another part throughout the specification, it includes not only "directly connected" but also "connected with other part in between".

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치(1000)의 구성을 나타낸 블록도이다 1 is a block diagram showing a configuration of an apparatus 1000 for extracting tex1 information in a tidal area using a dron according to an embodiment of the present invention

도 1을 참조하면, 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치(1000)는 지상 기준점 측량부(10), 드론(20), 수치표면모형 생성부(30), 정사영상 생성부(40), 그래디언트 영상 생성부(50), 영상 조각 분할부(60), 영상 조각 병합부(70), 수계 판별 기준 학습부(80), 수계 경계 추출부(90) 및 갯벌 등고선 추출부(100)를 포함할 수 있다.Referring to FIG. 1, the apparatus 1000 for extracting tidal information in a tidal flat area using a drone includes a ground reference point surveying unit 10, a drone 20, a numerical surface model generating unit 30, an orthoimage image generating unit 40 A boundary image extracting unit 90, and a tidal flat contour extracting unit 100. The gradient image extracting unit 100 extracts the contour of the tidal flat contour, . ≪ / RTI >

본 발명의 일 실시예에 따른 지상기준점 측량부(10)는 DGPS(Differential Global Positioning System) 측량 결과를 이용하여 갯벌 지역의 지상기준점(Ground Control Point, GCP) 측량을 수행할 수 있다. The ground reference point surveying unit 10 according to an embodiment of the present invention can perform a ground control point (GCP) survey of a tidal area using a DGPS (Differential Global Positioning System) survey result.

지상기준점(GCP)이란 원격 탐사에서 영상 좌표계와 지도 좌표계 사이의 좌표 변환식을 구하기 위해 사용되는 기준점을 의미하며, 원격 탐사를 위해서는 좌표 변환을 위한 지상기준점을 먼저 선정하여야 한다. 즉, 영상과 지도의 두 좌표계에서 공통적으로 분명한 좌표를 지상기준점으로 선정해야 하므로, 명확한 지점을 파악할 수 있는 화소의 위치, 촬영시기와 상관 없이 파악이 가능한 지점 또는 시간의 변화에 따라 변하지 않는 지점을 지상기준점으로 선정해야 한다. A ground reference point (GCP) is a reference point used to obtain a coordinate conversion formula between an image coordinate system and a map coordinate system in remote sensing. For remote sensing, a ground reference point for coordinate conversion should be selected first. In other words, since the coordinate point which is commonly known in both coordinate systems of the image and the map should be selected as the ground reference point, the position of the pixel capable of grasping the clear point, the point where it can be grasped regardless of the shooting time, Ground reference points should be selected.

지상기준점 측량은 지상기준점의 수평위치 및 표고를 획득하기 위하여 실시하는 측량을 의미한다. 즉, 지상기준점 측량은 항공삼각측량에 필요한 지상기준점의 3차원 좌표를 측량하는 것으로, 국토지리정보원의 국가기준점 성과표를 기본으로 하여 DGPS(Differential Global Positioning System) 측량 결과를 이용하여 지상기준점의 3차원 좌표를 획득할 수 있다. Ground reference point surveying refers to the horizontal position of the ground reference point and the survey performed to obtain the elevation. That is, the ground reference point survey is to measure the three-dimensional coordinates of the ground reference point required for aerial triangulation. Based on the national reference point scorecard of the Korea Geographical Information Institute, it is possible to use the DGPS (Differential Global Positioning System) Coordinates can be obtained.

즉, 지상기준점 측량부(10)는 미리 선정된 지상기준점에 대하여 두 개 이상의 GPS 수신기를 사용하는 상대 측위법(DGPS)의 측량 결과를 이용하여, 지상기준점의 3차원 좌표를 획득할 수 있다. That is, the terrestrial reference point surveying unit 10 can obtain the three-dimensional coordinates of the terrestrial reference point using the measurement results of the counterpart method (DGPS) using two or more GPS receivers with respect to the predetermined terrestrial reference point.

본 발명의 일 실시예에 따른 드론(20)은 일정 시간 간격으로 갯벌 지역에 대한 항공영상을 촬영할 수 있다. 즉, 갯벌 지역에 대한 항공삼각측량을 위해서, 드론(20)을 활용하여 일정 시간 간격으로 갯벌 지역의 항공영상을 촬영할 수 있다. The drone 20 according to an embodiment of the present invention can take aerial images of the tidal flat area at predetermined time intervals. That is, in order to perform aerial triangulation on the tidal flat area, it is possible to take an aerial image of the tidal flat area at a predetermined time interval using the drones 20.

본 발명의 일 실시예에 따른 드론(20)은 전문적인 지도제작에 활용되는 고정익 드론 또는 일반적인 레저를 목적으로 활용되는 회전익 드론을 포함할 수 있다. 전문 지도제작용으로 쓰이는 고정익 드론의 경우에는 1회 촬영범위가 넓으며, 거치하중이 크다는 장점에 따라 DSLR 카메라를 탑재하여 측량이 가능하지만, 매우 고가이며 기체의 이착륙에 충분한 공간의 확보가 필요하다는 점, 돌풍이나 호우에 의해 기체가 망실될 경우 회수가 어렵다는 해양환경의 특성상 연안 해양측량에서 위험부담이 크다는 단점을 가지고 있다.The dron 20 according to an embodiment of the present invention may include a fixed wing dragon used for professional map production or a rotor wing dragon used for general leisure purposes. In the case of fixed-wing drones used for professional map production, it is possible to carry out measurement by using a DSLR camera because of its wide shooting range and high loading capacity. However, it is very expensive and it is necessary to secure sufficient space for take- It has the disadvantage of high risk in coastal marine surveying due to the characteristics of the marine environment that it is difficult to recover if the gas is lost due to dots, gusts or heavy rainfall.

상대적으로 레저용으로 활용되는 회전익 드론의 경우에는 수직이착륙이 가능하다는 점과 조정이 간편하다는 점 또한 갑작스런 기상변화에 즉각적인 회수가 가능하다는 점에서 고정익 드론에 비해 장점을 가진다고 할 수 있다. 본 발명에서는 이러한 회전익 드론의 장점을 고려하여 회전익 드론을 활용하여 갯골 정보를 추출하였으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the case of the rotor-blade drones, which are relatively used for leisure purposes, the vertical take off and landing is possible and the fact that it is easy to adjust is also advantageous compared to the fixed-wing drones in that the sudden weather change can be immediately recovered. In the present invention, the tibia information is extracted using the rotor blade drones in consideration of the advantages of the rotor blade drums, but the scope of the present invention is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 회전익 드론(20)과 카메라(22)를 나타낸 도면이다. 항공삼각측량을 위한 회전익 드론(20)으로는 현재 보편적으로 이용 가능한 DJI사의 Phantom4 모델과 동일한 사양의 모델을 사용하였고, 해당 기체에 일반적으로 탑재되는 카메라를 활용하였다. 다음의 <표 1> 에서 본 발명의 일 실시예에 따른 회전익 드론(20)과 카메라(22)의 제원을 확인할 수 있다.2 is a view showing a rotor blade dron 20 and a camera 22 according to an embodiment of the present invention. As the rotor blade drones (20) for aerial triangulation, the same specification model as the currently available Phantom4 model of DJI company was used and a camera mounted on the aircraft was used. Table 1 below shows specifications of the rotor blade drones 20 and the camera 22 according to an embodiment of the present invention.

Figure 112017016272718-pat00001
Figure 112017016272718-pat00001

도 3은 본 발명의 일 실시예에 따른 드론의 항공영상 촬영 지역인 전라남도 무안군 청계면 완산리에 위치한 연안지역을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 드론의 비행 경로를 나타낸 도면이다.FIG. 3 is a view showing a coastal area located in Noan-ri, Chunggye-myeon, Muan-gun, Jeollanam-do, which is an aerial image capturing area of a dron according to an embodiment of the present invention, and FIG. 4 is a view showing a flight path of a dron according to an embodiment of the present invention .

도 3 및 도 4를 참조하면, 드론(20)을 이용한 해당지역에 대한 1회 촬영시간은 평균 20분이 소요되었고, 1회 촬영 시간당 약 0.5 km2의 촬영블록에 대해 종중복 80%, 횡중복 40% 이상으로 촬영하여, 촬영블록 당 350장 정도의 항공영상을 취득하였다. Referring to FIGS. 3 and 4, it is assumed that a single shooting time for the corresponding area using the drone 20 took 20 minutes on average. For shooting blocks of about 0.5 km 2 per shooting time, 80% We captured about 40% or more and got about 350 aerial images per shot block.

도 5는 본 발명의 일 실시예에 따른 드론(20)을 활용한 갯벌 지역에 대한 항공삼각측량의 작업순서도를 나타낸 도면이다. FIG. 5 is a flowchart illustrating an operation of aerial triangulation with respect to a tidal flat area utilizing the drones 20 according to an embodiment of the present invention.

도 5를 참조하면, 드론(20)을 활용한 갯벌 지역에 대한 항공삼각측량의 작업 순서는, 항공영상을 촬영하기 전에, 우선 측량이 필요한 촬영대상의 지역을 선정하고(S10), 촬영 대상지의 현지 조사를 실시하고(S20), 비행 경로, 고도 등의 비행 계획을 수립하고(S30), 드론을 이용한 항공영상의 촬영허가를 취득하는 단계(S40)를 거쳐야 한다.Referring to FIG. 5, the operation sequence of the aerial triangulation with respect to the tidal flat area using the dron 20 is performed by selecting an area to be photographed to be surveyed prior to photographing the aerial image (S10) A field survey is performed (S20), a flight plan such as a flight path and an altitude is established (S30), and a step S40 of acquiring a photographing permission of an aerial image using a drone is performed.

그 다음으로, 지상기준점 측량부(10)를 이용하여 지상기준점을 측량하고(S50), 드론(20)을 활용하여 갯벌 지역의 항공영상을 촬영하여(S60), 촬영된 항공영상에서 영상 노이즈 제거, 왜곡 보정 등의 전처리를 수행하고(S70), 전처리된 항공영상 및 측량된 지상기준점 좌표를 이용하여 수치표면모형(Digital Surface Model, DSM) 및 정사영상을 획득하고(S80), 획득된 수치표면모형(DSM) 및 정사영상의 정확도를 평가하고 검수하는 단계(S90)를 수행함으로써, 갯벌 지역에 대한 항공삼각측량을 수행할 수 있다.Next, the ground reference point is measured using the ground reference point surveying unit 10 (S50), the aviation image of the tidal flat area is photographed using the drones 20 (S60), and the image noise removal (S70), a digital surface model (DSM) and an orthoimage image are acquired using the preprocessed aerial image and the measured ground reference point coordinates (S80), and the obtained numerical surface (DSM) and the step of evaluating and verifying the accuracy of the orthoimage (S90), the aerial triangulation can be performed on the tidal flat area.

수치표면모형 생성부(30)는 드론(20)에 의해 촬영된 항공영상을 이용하여 수치표면모형(Digital Surface Model, DSM)을 생성할 수 있다. The numerical surface model generation unit 30 may generate a digital surface model (DSM) using the aerial image photographed by the drones 20. [

수치표면모형(DSM)은 실제 세계의 지형정보를 표현하는 수치모형으로, 실제의 지형, 수목, 건물, 인공 구조물 등을 포함하는 지형의 높이값을 포함하는 3차원 좌표로 표현된 모형을 의미한다. A numerical surface model (DSM) is a numerical model representing real world topographic information, and refers to a model expressed in three-dimensional coordinates including the height values of the terrain including actual terrain, trees, buildings, and artificial structures .

즉, 수치표면모형 생성부(30)는 드론(20)에 의해 촬영된 항공영상을 이용하여, 항공영상에서 영상 노이즈 제거 및 왜곡 보정 등의 전처리 과정을 수행한 후에, 벡터라이징, 고도점의 좌표 추출 및 보간법 등의 방법을 수행하여, 항공영상에서 3차원 좌표로 표현된 수치표면모형(DSM)을 생성할 수 있다.That is, the numerical surface model generation unit 30 performs preprocessing such as image noise removal and distortion correction on the aerial image using the aerial image photographed by the drones 20, Extraction and interpolation can be performed to generate a numerical surface model (DSM) expressed in three-dimensional coordinates in an aerial image.

또한, 수치표면모형 생성부(30)는 전 처리 과정을 거친 두 장의 항공영상을 이용하여, 두 장의 항공영상에서의 공액점을 영상매칭 방법을 통하여 자동으로 결정하여 두 장의 영상을 자동 매칭하고, 영상매칭을 통해서 추출된 공액점의 지상좌표를 공간전방교회법 (Space Intersection)으로 결정하고, 보간법 등의 방법을 수행하여, 항공영상에서 3차원 좌표로 표현된 수치표면모형(DSM)을 생성할 수 있다. Also, the numerical surface model generation unit 30 automatically determines the conjugate points in the two aerial images using the two matching aerial images through the preprocessing process, automatically matching the two images, We can generate the numerical surface model (DSM) expressed in three-dimensional coordinates in the aerial image by determining the ground coordinates of the conjugate point extracted through matching and determining the space intersection method and performing interpolation or the like.

정사영상 생성부(40)는 수치표면모형 및 지상기준점을 이용하여 정사영상을 생성할 수 있다. 즉, 정사영상 생성부(40)는 지상기준점 측량을 통하여 획득된 지상기준점 좌표를 이용하여, 항공영상에 지상기준점을 위치시키고, 렌즈 중심에서 벗어난 물체의 높이 차이 왜곡인 기복변위를 수정하기 위해서 수치표면모형을 결합하고, 편위수정(Rectification) 과정을 수행함으로써 정사영상을 생성할 수 있다. 예를 들어, 정사영상 생성부(40)는 항공영상에서 지면의 고도 차이에 의해서 영상에 나타나는 편위를 수정하기 위해서, 항공영상의 픽셀의 밝기값을 수치표면모형에 결합하여 화소값 매칭을 시키는 방법으로 정사영상을 생성할 수 있다. The orthoimage image generating unit 40 can generate orthoimages using the numerical surface model and the ground reference point. That is, the orthoimage image generation unit 40 uses the ground reference point coordinates acquired through the ground reference point measurement to position the ground reference point in the aerial image, and to correct the undulation displacement, which is the height difference distortion of the object deviated from the lens center, The orthoimage can be generated by combining surface models and performing a rectification process. For example, the orthoimage image generation unit 40 combines the brightness values of the pixels of the aerial image with the numerical surface model to correct the deviation of the image due to the altitude difference of the ground in the aerial image The orthoimage can be generated.

또한, 정사영상 생성부(40)는 지면의 고도 차이에 의해서 영상에 나타나는 편위를 수정하기 위해서, 주변 화소값을 보간하여 결정하는 방법 또는 편위수정을 통해 보정된 화소의 위치를 재배열하는 영상재배열(Image Resampling) 방법 등을 이용하여 정사영상을 생성할 수 있다. In addition, the orthoimage image generating unit 40 may include a method of interpolating neighboring pixel values to correct a deviation appearing in an image due to an altitude difference of a ground, or a method of interpolating a pixel value corrected through a deviation correction, An orthogonal image can be generated by using an image resampling method or the like.

도 6은 본 발명의 일 실시예에 따른 촬영 회차 별(총 4회)로 생성된 정사영상 및 수치표면모형(DSM)을 나타낸 도면이고, <표 2>는 촬영 회차 별(총 4회)로 생성된 정사영상 및 수치표면모형(DSM)의 정확도 및 효용성 평가를 나타낸 표이다.FIG. 6 is a diagram showing an orthoimage image and a numerical surface model (DSM) generated by photographing times (four times in total) according to an embodiment of the present invention, This is a table showing the accuracy and utility evaluation of the generated orthoimage and numerical surface model (DSM).

Figure 112017016272718-pat00002
Figure 112017016272718-pat00002

도 6 및 <표 2>를 참조하면, 도 6에서 생성된 정사영상의 공간해상도는 평균 5cm 정도로써 기존의 원격탐사 기법에 비해 매우 높은 수준의 공간해상력을 가지는 데이터의 생성이 가능함을 확인할 수 있다. 또한 20분 촬영시간에 대한 1회 촬영범위는 평균 0.5 km2 수준으로써 지형공간정보 제작을 위한 일반적인 작업 효율을 만족시킨다고 할 수 있다. 위치정확도의 경우 정밀도를 나타내는 평균 제곱근 편차(Root Mean Square Error, RMSE)가 0.1 m 이하로써 지형공간정보 구축에 만족할 만한 수준의 정밀도를 가지는 데이터의 생성이 가능함을 확인할 수 있다.6 and Table 2, it can be seen that the spatial resolution of the orthoimage generated in FIG. 6 is about 5 cm on an average, and thus it is possible to generate data having a very high level of spatial resolution compared to the conventional remote sensing technique . In addition, the shooting range for 20 minutes shooting time is 0.5 km 2 on average, which satisfies the general working efficiency for geospatial information production. In case of the position accuracy, it can be confirmed that the data having a level of accuracy enough to construct the geospatial information can be generated because the root mean square error (RMSE) indicating the precision is less than 0.1 m.

본 발명의 일 실시예에 따른 그래디언트 영상 생성부(50)는 생성된 정사영상에서 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성할 수 있다. The gradient image generator 50 according to an exemplary embodiment of the present invention may generate a gradient image using the difference in brightness value between neighboring pixels in the generated orthoimage.

즉, 그래디언트 영상 생성부(50)는 바다와 육지의 경계선과 같이, 서로 다른 지표물질의 경계선을 획득하기 위해서, 정사영상에서 어떤 특정 부분의 화소와 그 특정 부분을 둘러싸고 있는 주변 화소와의 밝기값 차이를 이용하여 그래디언트 영상을 생성할 수 있다. 정사영상에서 그래디언트 영상을 생성하는 방법은 다음의 <수학식 1>과 같이 표현될 수 있다. That is, in order to acquire the boundary lines of different indicator materials, such as the boundary line between the sea and the land, the gradient image generator 50 may calculate brightness values of pixels of a specific portion and surrounding pixels surrounding the specific portion The gradient image can be generated using the difference. A method of generating a gradient image from an orthoimage can be expressed as Equation (1) below.

Figure 112017016272718-pat00003
Figure 112017016272718-pat00003

도 7의 (a)는 본 발명의 일 실시예에 따른 지표면의 정사영상을 나타낸 도면이고, 도 7의 (b)는 지표면의 정사영상을 이용하여 생성된 그래디언트 영상을 나타낸 도면이다. FIG. 7A is an orthoimage image of the ground surface according to an embodiment of the present invention, and FIG. 7B is a diagram illustrating a gradient image generated by using an orthoimage image of the ground surface.

도 7의 (a) 및 (b)를 참조하면, 그래디언트 영상에서, 주변 화소와의 밝기값 차이가 크게 나타나는 좌표 지점은 주변 화소와 밝기값 차이가 작은 좌표 지점보다 더 밝게 나타나는 것으로 확인할 수 있다. 예를 들어, 정사영상에서 어떤 화소의 밝기값이 100 일때, 주변 화소의 밝기값이 110이라면 밝기값 차이(기울기)는 10이 되고, 주변 화소의 밝기값이 200이라면 밝기값 차이(기울기)는 100으로 표현될 수 있으므로, 그래디언트 영상에서, 밝기값 차이(기울기)가 100일때는 밝기값 차이(기울기)가 10일때보다 더 밝게 표현될 수 있다. 즉, 그래디언트 영상은 화소의 밝기값 차이(기울기 정도)를 나타내는 도면이므로, 화소의 밝기값 차이(기울기 정도)에 의해서 그래디언트(밝기 기울기)가 큰 화소의 좌표 지점이 밝게 표현되고, 그래디언트(밝기 기울기)가 작은 화소의 좌표 지점이 어둡게 표현될 수 있다.Referring to FIGS. 7A and 7B, it can be seen that, in the gradient image, the coordinate point where the difference in the brightness value with respect to the neighboring pixel is large appears brighter than the coordinate point with the difference in brightness value between the neighboring pixel and the neighboring pixel. For example, if the brightness value of a pixel is 100 in the orthoimage and the brightness value of the neighboring pixel is 110, the brightness difference (slope) is 10, and if the brightness value of the neighboring pixel is 200, 100, when the brightness difference (slope) is 100 in the gradient image, the brightness difference (slope) can be expressed more brighter than when the difference is 10. That is, since the gradient image is a diagram showing a difference in brightness value (degree of gradient) of a pixel, a coordinate point of a pixel having a large gradient (brightness gradient) is brightly displayed by a difference in brightness value (degree of gradient) ) Can be expressed darkly at the coordinate point of a small pixel.

예를 들어. 바다와 육지의 경계선에 위치한 화소의 경우에는 주변 화소와의 영상 밝기값이 차이가 클 것이기 때문에, 그래디언트 영상에서 바다와 육지의 경계선의 좌표 지점은 밝게 표현될 수 있다. 또한, 바다 또는 육지의 한가운데 같이 동일한 물성을 가지는 지역의 한가운데 위치한 화소의 경우에는 주변 화소와의 밝기값 차이는 작을 것이기 때문에, 그래디언트 영상에서 바다 또는 육지의 한가운데 좌표지점은 어둡게 표현될 수 있다. 따라서, 그래디언트 영상에서 밝게 표현되는 좌표 지점들의 화소들을 연결하면 서로 다른 물성을 가지는 지점의 경계선, 예컨대 바다와 육지의 경계선을 얻을 수 있게 된다.E.g. In the case of a pixel located at the boundary line between the sea and the land, the coordinate value of the boundary line between the sea and the land can be expressed brightly in the gradient image because the image brightness value with the surrounding pixels is large. Also, in the case of a pixel positioned at the center of a region having the same physical properties as the sea or the center of the land, the difference in brightness value between the surrounding pixels and the neighboring pixels may be small, so that the coordinate point in the center of the sea or land can be darkened in the gradient image. Accordingly, by connecting the pixels of the coordinate points that are brightly expressed in the gradient image, it is possible to obtain a boundary line of a point having different physical properties, for example, a boundary between the sea and the land.

영상 조각 분할부(60)는 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할할 수 있다. 즉, 영상 조각 분할부(60)는 그래디언트 영상에서 유사한 특징을 가지는 조각들로 영상을 분할하기 위해서 watershed 알고리즘을 이용하는데, 이 알고리즘은 그래디언트 영상에서 화소의 밝기값 차이(그래디언트 연산값)를 높이로 가정하여, 지역적 최저점(local minima)에 물을 채울 경우 높낮이의 차이로 인하여 물이 차오르는 형태에 따라서 영상을 분할하는 방식이다. The image segment dividing unit 60 may divide the generated gradient image into a plurality of image segments by applying a watershed algorithm. That is, the image segment dividing unit 60 uses a watershed algorithm to divide an image into pieces having similar characteristics in a gradient image. This algorithm uses a watershed algorithm in which the brightness difference (gradation operation value) Assuming that the local minimum is filled with water, the image is divided according to the shape of the water due to the difference in height.

도 8의 (a)는 본 발명의 일 실시예에 따른 그래디언트 영상의 화소의 밝기값 차이(그래디언트 연산값)을 높이로 나타낸 도면이고, 도 8의 (b)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 watershed 알고리즘을 적용하여 영역들(영역 1 및 영역 2)을 추출하는 과정을 나타낸 도면이다. FIG. 8A is a diagram illustrating a height difference (gradation operation value) of a pixel of a gradient image according to an exemplary embodiment of the present invention, and FIG. 8B is a diagram illustrating a gradient value according to an exemplary embodiment of the present invention (Region 1 and region 2) by applying a watershed algorithm in a gradient image.

도 8의 (b)를 참조하면, watershed 알고리즘은 그래디언트 영상에서의 각 화소의 밝기값 차이(그래디언트 연산값)을 지표의 등고선으로 가정하여, 능선과 능선 사이의 분수계(watershed)를 각각의 영역(예를 들어, 영역 1, 영역 2)으로 추출하는 것으로, 유사한 특징을 가지는 영상 조각으로 추출하여 분할할 수 있다.8 (b), the watershed algorithm assumes that the brightness difference value (gradient operation value) of each pixel in the gradient image is the contour line of the indicator, and divides the watershed between the ridge line and the ridge line into the respective areas For example, region 1 and region 2), it is possible to extract and divide into image pieces having similar characteristics.

즉, watershed 알고리즘은 그래디언트 영상으로부터 지역적 최저점들을 탐색한 다음, 각각의 지역적 최저점에서 물이 차오르는 형태에 따라서 주변의 높은 고도를 가지는 화소들을 차례차례 병합하여, 경계를 추출하여 영상을 조각으로 분할하는 방법이다. 예를 들어, 어떤 화소에서 서로 다른 최저점에서 출발한 탐색이 서로 만날 경우, 해당 화소들을 연결하여 경계를 추출하고, 추출된 경계에 따라서 조각을 형성하여 영상을 분할할 수 있다.In other words, the watershed algorithm searches the local lowest points from the gradient image, and then merges pixels with high altitudes around each other according to the shape of the water at each local trough, to be. For example, when a search originating at a different lowest point in a pixel meets each other, the pixels may be connected to extract a boundary, and a piece may be formed along the extracted boundary to divide the image.

다만, watershed 알고리즘은 그래디언트 영상에서 지역적 최저점의 개수가 과도하게 많은 경우에는 너무 많은 영역이 추출되게 되므로, 드론에서 촬영된 항공영상과 같이 공간해상도가 수 센티미터(cm) 수준의 고해상도 영상의 경우에는 수풀의 음영이나 지상의 물체가 영상에서 식별되기 때문에 과도한 영상 조각이 추출되어 분할되는 결과를 얻을 수 있다. 이러한 문제를 해결하기 위하여 영상 조각 분할부(60)는 watershed 알고리즘의 적용 과정에서 스케일 레벨(scale level)을 적용하여 임계값을 결정함으로써, 그래디언트 영상에서 적정 개수의 영상 조각을 추출할 수 있다. However, since the watershed algorithm extracts too many regions when the number of local low points is excessively large in the gradient image, in the case of a high resolution image having a spatial resolution of several centimeters (cm) The shadow or the ground object of the image is identified in the image, so that an excessive image fragment is extracted and divided. In order to solve this problem, the image segment dividing unit 60 can extract a proper number of image fragments from the gradient image by determining a threshold value by applying a scale level in the application process of the watershed algorithm.

도 9의 (a)는 본 발명의 일 실시예에 따른 그래디언트 영상을 나타낸 도면이고, 도 9의 (b)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 높은 스케일 레벨을 적용하여 watershed 알고리즘을 적용한 도면이고, 도 9의 (c)는 본 발명의 일 실시예에 따른 그래디언트 영상에서 낮은 스케일 레벨을 적용하여 watershed 알고리즘을 적용한 도면이다. 9A is a view showing a gradient image according to an embodiment of the present invention. FIG. 9B is a diagram illustrating a gradient image according to an exemplary embodiment of the present invention, in which a watershed algorithm is applied by applying a high- 9C is a diagram illustrating a watershed algorithm applying a low scale level to a gradient image according to an exemplary embodiment of the present invention.

도 9의 (a), (b), (c)를 참조하면, watershed 알고리즘에 스케일 레벨(scale level)의 적용은 스케일 레벨을 적용하여 특정 임계값을 결정하고, 그래디언트 영상에서 특정 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 특정 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점만을 이용하도록 watershed 알고리즘을 적용하여 영상 조각을 추출하는 방식이다. 9 (a), 9 (b), and 9 (c), application of a scale level to a watershed algorithm determines a specific threshold by applying a scale level, A watershed algorithm is applied to extract only a local minimum point having a gradient value higher than a specific threshold without considering a local minimum point having a gradient value.

즉, 스케일 레벨을 적용한 특정 임계값의 결정은 모든 지역적 최저점값을 크기순으로 누적하였을 경우 상위 %의 지역적 최저점값을 특정 임계값으로 결정하는 방식이다. 예를 들어, 스케일 레벨을 10%로 설정한 경우에는, 모든 지역적 최저점을 크기순으로 상위 10%에 해당하는 지역적 최저점값을 특정 임계값으로 결정하고, 10%에 해당하는 지역적 최저점값(스케일 레벨 10%의 임계값)보다 높은 그래디언트 값을 가지는 지역적 최저점만을 이용하도록 watershed 알고리즘을 적용하여 영상 조각을 추출할 수 있다. That is, the determination of the specific threshold value applying the scale level is a method of determining the local lowest point value of the upper% as a specific threshold value when all the regional lowest point values are accumulated in order of magnitude. For example, if the scale level is set to 10%, the local lowest point value corresponding to the upper 10% of all the regional lowest points is determined as the specific threshold value, and the local lowest point value corresponding to 10% A threshold value of 10%), the image segment can be extracted by applying the watershed algorithm.

도 10은 본 발명의 일 실시예에 따른 갯벌 지역의 그래디언트 영상에 스케일 레벨 50%을 적용하여 watershed 알고리즘으로 영상 조각을 분할한 결과를 나타낸 도면이다. 10 is a view showing a result of dividing an image fragment into a watershed algorithm by applying a scale level of 50% to a gradient image of a tidal flat area according to an embodiment of the present invention.

도 10을 참조하면, 영상 조각 분할부(60)는 갯벌 지역의 그래디언트 영상에 중위값에 해당하는 50%로 스케일 레벨을 설정하고 watershed 알고리즘을 적용하여, 복수의 영상 조각을 추출하여 분할할 수 있다. 즉, 과도한 개수로 분할되는 것을 방지하기 위해서, 중위값에 해당하는 50%로 스케일 레벨을 적용하여 갯벌 지역의 영상 조각을 분할하였으나, 필요에 따라 스케일 레벨값을 변경할 수 있으며, 본 발명의 범위가 이에 한정되는 것은 아니다.Referring to FIG. 10, the image segmentation unit 60 may extract and divide a plurality of image segments by setting a scale level of 50%, which corresponds to a median value, in a gradient image of a tidal flat region, and applying a watershed algorithm. That is, in order to prevent the image from being divided into an excessive number, the image level of the tidal area is divided by applying the scale level of 50% corresponding to the median value. However, the scale level value can be changed as needed, But is not limited thereto.

본 발명의 일 실시예에 따른 영상 조각 병합부(70)는 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각을 병합할 수 있다.The image merge unit 70 according to an embodiment of the present invention may merge adjacent image pieces when the spectral characteristics of adjacent image pieces are equal to or greater than a certain degree of similarity for each of the plurality of image pieces.

도 10을 참조하면, 그래디언트 영상에 스케일 레벨 50%를 설정하고 watershed 알고리즘을 적용하더라도 분석 대상인 갯벌의 지형에 비하여 선박 및 인공물은 여전히 과도하게 분할되는 문제점을 가지고 있다. 따라서, 인접 영상 조각의 분광 특성이 유사할 경우, 예컨대, 분광 특성이 일정 유사도 이상인 경우에는 인접 영상 조각을 병합하는 과정이 필요하다.Referring to FIG. 10, even when the scale level is set to 50% and the watershed algorithm is applied to the gradient image, the ship and artifacts are still excessively divided as compared with the tidal-flat topography to be analyzed. Therefore, when the spectral characteristics of the adjacent image pieces are similar, for example, when the spectral characteristics are equal to or greater than a certain degree of similarity, a process of merging adjacent image pieces is required.

즉, 영상 조각 병합부(70)는 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 측정된 유사도를 소정의 임계값과 비교하여 소정의 임계값보다 큰 유사도를 가지는 영상 조각들을 병합할 수 있다. That is, the image merge unit 70 calculates an average spectral vector of a plurality of divided image fragments, measures the similarity, compares the measured similarity with a predetermined threshold value, and outputs the image fragments having a degree of similarity larger than a predetermined threshold value Can be merged.

예를 들어, 영상 조각 병합부(70)는 Full Lambda Schedule 기법을 사용하여 복수의 영상 조각들의 유사도를 측정하고, 측정된 유사도를 크기순으로 누적하여 상위 특정 퍼센트(%) 값을 가지는 유사도를 소정의 임계값으로 결정하고, 결정된 소정의 임계값보다 큰 유사도를 가지는 영상 조각들을 병합할 수 있다.For example, the image merge unit 70 measures the similarity of a plurality of image fragments using the Full Lambda Schedule technique, accumulates the measured similarity in the order of magnitude, and sets the similarity having an upper specific percentage (% And merges the image fragments having a degree of similarity larger than the determined predetermined threshold value.

영상 조각 병합부(70)가 Full Lambda Schedule 기법을 사용하여 복수의 영상 조각들의 유사도를 측정하는 방법은 다음의 <수학식 2>와 같이 표현될 수 있다.A method of measuring the similarity of a plurality of image fragments using the full lambda schedule technique of the image fragment merging unit 70 can be expressed as Equation (2) below.

Figure 112017016272718-pat00004
Figure 112017016272718-pat00004

Figure 112017016272718-pat00005
Figure 112017016272718-pat00005

도 11은 본 발명의 일 실시예에 따른 watershed 알고리즘 적용한 후 유사도를 측정하여 상위 70%에 해당하는 유사도(merge level 70%)를 가지는 영상 조각들을 병합한 결과를 나타낸 도면이다. FIG. 11 is a diagram showing a result of merging image fragments having a similarity level (merge level 70%) corresponding to the upper 70% by measuring similarity after applying the watershed algorithm according to an embodiment of the present invention.

도 10 및 도 11을 참조하면, 갯벌 지형, 해안의 선박, 인공 구조물에서 조각 분할되었던 영상 조각들이 영상 조각 병합부(70)에 의해 병합된 것을 확인할 수 있다.Referring to FIGS. 10 and 11, it can be seen that the image pieces that have been fragmented in the tidal-flat topography, the coastal vessel, and the artificial structure are merged by the image fragment merging unit 70. FIG.

본 발명의 일 실시예에 따른 수계 판별 기준 학습부(80)는 영상 조각 병합부(70)를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습할 수 있다.The water-based discrimination reference learning unit 80 extracts and analyzes the characteristics of the pixels constituting each piece according to the image pieces obtained through the image-carving unit 70, can do.

예를 들어, 수계 판별 기준 학습부(80)는 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습할 수 있다. 즉, 수계 판별 기준 학습부(80)는 각각의 조각을 구성하는 화소들의 분광 특성, 기하학적 특성, 표면 엔트로피 특성 등을 이용하여 수계 판별 기준을 학습하기 위해서, 평균 밝기값, 면적, 텍스쳐 특성 중의 적어도 하나를 추출하여 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습할 수 있다. 예를 들어, 수계 판별 기준 학습부(80)는 갯벌 지역에서 수계의 특징을 추출하기 위해서 가장 저수위 일 때의 갯벌 지역의 수계와 주변 저수지 지역과 중첩되는 영상 조각들의 특징을 이용하여 감독분류방식을 이용하여 수계 판별 기준을 학습할 수 있다.For example, the water-based discrimination reference learning unit 80 may extract at least one of the average brightness value, the area, and the texture characteristic of the pixels constituting each piece, analyze it using the supervisory classification method, have. In other words, the water-based discrimination reference learning unit 80 may use at least one of the average brightness value, the area, and the texture property to learn the water-based discrimination criterion using the spectroscopic characteristics, geometric characteristics, surface entropy characteristics, One can be extracted and analyzed using the supervised classification method, so that the water classification criterion can be learned. For example, in order to extract the characteristics of the water system in the tidal-flat area, the water-based criterion learning unit 80 uses the characteristics of the image pieces superimposed on the water system of the tidal area and the surrounding reservoir area at the lowest water level, Can be used to learn water classification criteria.

본 발명의 일 실시예에 따른 수계 경계 추출부(90)는 학습된 수계 판별 기준을 이용하여, 획득된 영상 조각들에서 수계 지역을 구분하고, 구분된 수계 지역의 영상 조각들을 객체 인접성 분석(object adjacency analysis)을 통하여 병합하여, 수계 경계를 추출할 수 있다.The water boundary extracting unit 90 according to an embodiment of the present invention classifies the water area in the acquired image fragments by using the learned water based criterion, the water boundary can be extracted by merging through the adjacency analysis.

도 12는 본 발명의 일 실시예에 따른 수계 경계 추출부(90)에 의해 추출된 수계 경계를 시간대별(일정 시간 간격)로 나타낸 도면이다. FIG. 12 is a diagram showing the boundaries of the water boundaries extracted by the water boundary extracting unit 90 according to an embodiment of the present invention, by time (time interval).

도 12를 참조하면, 수계 경계 추출부(90)는 학습된 수계 판별 기준을 이용하여, 추출되어 병합된 영상 조각 군집을 병합하여 수계 경계를 추출할 수 있다. 여기에서, 영상 조각은 영상 처리에 의해서 얻어진 면 객체(polygon object) 집합으로, 수계 경계 추출부(90)는 영상 조각 군집에 대하여 공간분석의 일종인 객체 인접성 분석(object adjacency analysis)을 수행하여 하나의 공간 객체로 병합하여, 수계 경계를 추출할 수 있다.Referring to FIG. 12, the water boundary extracting unit 90 may extract the water boundary by merging extracted and merged image segment clusters using the learned water based criterion. Here, the image segment is a set of polygon objects obtained by image processing, and the water boundary extraction unit 90 performs object adjacency analysis, which is a type of spatial analysis, The boundary of the water system can be extracted.

본 발명의 일 실시예에 따른 갯벌 등고선 추출부(100)는 수계 경계 추출부(90)에 의해 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출할 수 있다.The tidal flat contour extracting unit 100 according to an embodiment of the present invention can extract the contour lines of the tidal flat area by superimposing the water boundary extracted by the water boundary extracting unit 90 on a time basis.

도 13은 본 발명의 일 실시예에 따른 시간대별 수계 경계를 중첩하여 얻어진 갯벌 지역 등고선의 분포를 나타낸 도면이다. FIG. 13 is a diagram showing the distribution of tidal area contour lines obtained by superimposing a water boundary at each time point according to an embodiment of the present invention.

도 13을 참조하면, 갯벌 등고선 추출부(100)는 수계 경계 추출부(90)에 의해 추출된 수계 경계 영상을 시간대별로 중첩하여 갯벌 지역의 등고선을 추출할 수 있다. Referring to FIG. 13, the tidal flat contour extracting unit 100 can extract the contour lines of the tidal flat area by superimposing the water boundary images extracted by the water boundary extracting unit 90 on a time basis.

도 14는 본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법을 나타낸 순서도이다. 14 is a flowchart illustrating a method of extracting tibia information in a tidal flat area using a dron according to an embodiment of the present invention.

도 14를 참조하면, 단계 S100에서, 지상기준점 측량부(10)는 DGPS(Differential Global Positioning System) 측량을 통하여 갯벌 지역의 지상기준점 측량을 수행할 수 있다. 예를 들어, 지상기준점 측량부(10)는 미리 선정된 지상기준점에 대하여 국토지리정보원의 국가기준점 성과표를 기본으로 하여 DGPS(Differential Global Positioning System) 측량 결과를 이용하여 지상기준점의 3차원 좌표를 획득할 수 있다.Referring to FIG. 14, in step S100, the ground reference point surveying unit 10 can perform ground reference point survey of the tidal flat area through DGPS (Differential Global Positioning System) surveying. For example, the ground reference point surveying unit 10 acquires the three-dimensional coordinates of the ground reference point based on the DGPS (Differential Global Positioning System) survey results based on the national reference point scorecard of the National Geographical Information Institute for the previously selected ground reference points can do.

단계 S200에서, 항공삼각측량을 위해서, 드론(20)을 활용하여 일정 시간 간격으로 갯벌 지역에 대한 항공영상을 촬영할 수 있다. 즉, 갯벌 지역 분석을 위한 수치표면모형 및 정사영상을 획득하기 위해서, 드론을 활용하여 일정시간 간격으로 갯벌 지역을 촬영할 수 있다. In step S200, for the aerial triangulation, the drones 20 can be used to take aerial images of the tidal flat area at regular intervals. In other words, in order to acquire the numerical surface model and orthoimage image for the analysis of the tidal flat area, the tidal flat area can be photographed at a predetermined time interval using the drone.

단계 S300에서, 촬영된 항공영상을 이용하여 수치표면모형 및 정사영상을 생성할 수 있다. 예를 들어, 수치표면모형 생성부(30)는 드론(20)에 의해 촬영된 항공영상을 이용하여, 항공영상에서 영상 노이즈 제거 및 왜곡 보정 등의 전처리 과정을 수행한 후에, 벡터라이징, 고도점의 좌표 추출 및 보간법 등의 방법을 수행하여, 항공영상에서 3차원 좌표로 표현된 수치표면모형(DSM)을 생성할 수 있고, 정사영상 생성부(40)는 수치표면모형 생성부(30)에 의해 생성된 수치표면모형 및 측량된 지상기준점 좌표를 이용하여 정사영상을 생성할 수 있다. 예를 들어, 정사영상은 편위수정(Rectification), 폐색영역 보정, 칼라 매칭 등의 과정을 통해 생성될 수 있다.In step S300, a numerical surface model and an orthoimage can be generated using the aerial image photographed. For example, the numerical surface model generating unit 30 performs preprocessing such as image noise removal and distortion correction on the aerial image using the aerial image photographed by the dron 20, (DSM) represented by three-dimensional coordinates in the aerial image, and the ortho-image generation unit 40 generates the numerical surface model (DSM) The orthoimage can be generated by using the numerical surface model generated by the geomagnetic sensor and the measured ground reference point coordinates. For example, an orthoimage can be generated through processes such as rectification, occlusion correction, and color matching.

단계 S400에서, 그래디언트 영상 생성부(50)는 정사영상에서 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성할 수 있다. 예를 들어, 그래디언트 영상 생성부(50)는 바다와 육지의 경계선과 같이, 서로 다른 지표물질의 경계선을 획득하기 위해서, 정사영상에서 어떤 특정 부분의 화소와 그 특정 부분을 둘러싸고 있는 주변 화소와의 밝기값 차이를 이용하여 그래디언트 영상을 생성할 수 있다.In step S400, the gradient image generator 50 may generate a gradient image using the difference in brightness value between neighboring pixels in the orthoimage image. For example, in order to acquire the boundary lines of different indicator materials, such as the sea-to-land boundary line, the gradient image generator 50 may generate a gradient image of pixels of a specific part and neighboring pixels surrounding the specific part The gradient image can be generated using the brightness difference.

단계 S500에서, 영상 조각 분할부(60)는 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할할 수 있다. 예를 들어, 영상 조각 분할부(60)는 그래디언트 영상으로부터 지역적 최저점들을 탐색한 다음, 각각의 지역적 최저점에서 물이 차오르는 형태에 따라서 주변의 높은 고도를 가지는 화소들을 차례차례 병합하여, 경계를 추출하여 영상을 조각으로 분할하는 watershed 알고리즘을 적용하여 그래디언트(gradient) 영상을 복수의 영상 조각으로 분할할 수 있다. In step S500, the image segment dividing unit 60 may divide the generated gradient image into a plurality of image segments by applying a watershed algorithm. For example, the image segment dividing unit 60 searches the local lowest points from the gradient image, and sequentially merges pixels having high altitudes in accordance with the shape of the water at each local lowest point to extract boundaries A gradient image can be divided into a plurality of image fragments by applying a watershed algorithm that divides the image into fragments.

또한, 영상 조각 분할부(60)는 생성된 그래디언트 영상에 스케일 레벨(scale level)을 적용하여 임계값을 결정하고, 상기 결정된 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 결정된 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점만을 이용하도록 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할할 수 있다.The image segment dividing unit 60 determines a threshold by applying a scale level to the generated gradient image, and does not consider a local minimum point having a gradient value lower than the determined threshold value, The watershed algorithm can be applied to use only local low points having a higher gradient value to divide into multiple image segments.

단계 S600에서, 영상 조각 병합부(70)는 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 인접한 영상 조각들을 병합할 수 있다. 예를 들어, 영상 조각 병합부(70)는 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 측정된 유사도를 소정의 임계값과 비교하여 상기 소정의 임계값보다 큰 유사도를 가지는 영상 조각들을 병합할 수 있다.In step S600, for each of the plurality of image fragments, the image fragment merging unit 70 may merge adjacent image fragments when the spectral characteristics of adjacent image fragments are equal to or greater than a certain degree of similarity. For example, the image merge unit 70 may calculate an average spectral vector of a plurality of divided image fragments, measure the similarity, compare the measured similarity with a predetermined threshold value, and calculate a similarity degree larger than the predetermined threshold value You can merge video fragments.

단계 S700에서, 수계 판별 기준 학습부(80)는 영상 조각 병합부(70)를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습할 수 있다. 예를 들어, 수계 판별 기준 학습부(80)는 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습할 수 있다.In step S700, the water-based discrimination reference learning unit 80 may learn the water-based discrimination criteria by extracting and analyzing the characteristics of the pixels constituting each piece of the image piece obtained through the image-carving unit 70. [ For example, the water-based discrimination reference learning unit 80 may extract at least one of the average brightness value, the area, and the texture characteristic of the pixels constituting each piece, analyze it using the supervisory classification method, have.

단계 S800에서, 수계 경계 추출부(90)는 학습된 수계 판별 기준을 이용하여, 획득된 영상 조각들에서 수계 지역을 구분하고, 구분된 수계 지역의 영상 조각들을 객체 인접성 분석을 통하여 병합하여 수계 경계를 추출할 수 있다.In step S800, the water-system boundary extraction unit 90 classifies the water-based areas in the acquired image pieces using the learned water-based criterion, merges the image pieces of the separated water-based areas through object proximity analysis, Can be extracted.

단계 S900에서, 갯벌 등고선 추출부(100)는 수계 경계 추출부(90)에 의해 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출할 수 있다.In step S900, the tidal flat contour extracting unit 100 can extract the contour lines of the tidal flat area by superimposing the water boundary extracted by the water boundary extracting unit 90 on a time slot basis.

본 발명의 일 실시예에 따른 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법에 관련하여서는 전술한 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치(1000)에 대한 내용이 적용될 수 있다. 따라서, 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법과 관련하여, 전술한 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치(1000)에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.As to the method of extracting the tugboat information in the tidal flat area using the dron according to the embodiment of the present invention, the content of the tugbo information extracting apparatus 1000 in the tidal flat area using the dron may be applied. Therefore, with respect to the method of extracting the tugboat information in the tidal flat area using the drones, the description of the same contents as the contents of the tugbo information extraction device 1000 in the tidal flat area using the drones is omitted.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체로 구현될 수 있으며, 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. The computer-readable medium may also be embodied in a computer-readable medium, which may be volatile and / or non-volatile, implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, Nonvolatile, removable and non-removable media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

10: 지상기준점 측량부 20: 드론
30: 수치표면모형 40: 정사영상 생성부
50: 그래디언트 영상 생성부 60: 영상 조각 분할부
70: 영상 조각 병합부 80: 수계 판별 기준 학습부
90: 수계 경계 추출부 100: 갯벌 등고선 추출부
1000: 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치
10: ground reference point surveying unit 20: drones
30: Numerical surface model 40: Orthographic image generating section
50: gradient image generation unit 60: image segmentation unit
70: video image merge unit 80: water system discrimination reference learning unit
90: Water boundary extraction unit 100: Tidal flat contour extraction unit
1000: Tidal information extraction device in a tidal flat area using drone

Claims (9)

드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치에 있어서,
DGPS(Differential Global Positioning System) 측량 결과를 이용하여 갯벌 지역의 지상기준점 측량을 수행하기 위한 지상기준점 측량부;
항공삼각측량을 위해서, 일정 시간 간격으로 상기 갯벌 지역에 대한 항공영상을 촬영하기 위한 드론;
상기 촬영된 항공영상을 이용하여 수치표면모형을 생성하기 위한 수치표면모형 생성부;
상기 생성된 수치표면모형 및 상기 측량된 지상기준점을 이용하여 정사영상을 생성하기 위한 정사영상 생성부;
상기 생성된 정사영상에서 소정의 영역의 화소와 상기 소정의 영역을 둘러싸고 있는 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성하기 위한 그래디언트 영상 생성부;
상기 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하기 위한 영상 조각 분할부;
상기 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 상기 인접한 영상 조각을 병합하기 위한 영상 조각 병합부;
상기 영상 조각 병합부를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하기 위한 수계 판별 기준 학습부;
상기 학습된 수계 판별 기준을 이용하여, 상기 획득된 영상 조각들에서 수계 지역을 구분하고, 상기 구분된 수계 지역의 영상 조각들을 객체 인접성 분석(object adjacency analysis)을 통하여 병합하여, 수계 경계를 추출하기 위한 수계 경계 추출부; 및
상기 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출하기 위한 갯벌 등고선 추출부를 포함하며,
상기 영상 조각 병합부는, Full Lambda Schedule 기법을 사용하여 상기 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 상기 측정된 유사도를 크기 순으로 누적하여 상위 소정의 퍼센트(%) 값을 가지는 유사도를 임계값으로 결정하며, 상기 결정된 임계값보다 큰 유사도를 가지는 영상 조각들을 병합하고,
상기 Full Lambda Schedule 기법은 아래의 수학식으로 표현되며,
Figure 112018104081760-pat00020

상기
Figure 112018104081760-pat00021
는 i번째 영상 조각,
Figure 112018104081760-pat00022
는 상기
Figure 112018104081760-pat00023
의 면적,
Figure 112018104081760-pat00024
는 상기
Figure 112018104081760-pat00025
의 평균 분광 특성 벡터 및
Figure 112018104081760-pat00026
는 상기
Figure 112018104081760-pat00027
Figure 112018104081760-pat00028
의 연접 경계의 길이인 것을 특징으로 하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치.
In a tide information extracting apparatus in a tidal flat area utilizing a drone,
A ground reference point surveying unit for performing land reference point survey of tidal flat area using DGPS (Differential Global Positioning System) survey results;
A drones for capturing aerial images of the tidal flat area at predetermined time intervals for aerial triangulation;
A numerical surface model generation unit for generating a numerical surface model using the photographed aerial image;
An orthoimage image generation unit for generating an orthoimage image using the generated numerical surface model and the ground reference point;
A gradient image generation unit for generating a gradient image using a brightness value difference between a pixel in a predetermined region and a surrounding pixel surrounding the predetermined region in the generated orthoimage;
An image segmentation unit for dividing the generated gradient image into a plurality of image segments by applying a watershed algorithm;
A merging unit for merging the adjacent image fragments when the spectral characteristics of adjacent image fragments are equal to or greater than a certain degree of similarity for each of the plurality of image fragments;
A water level discrimination reference learning unit for extracting and analyzing characteristics of pixels constituting each piece of the image piece obtained through the image carving unit and learning the water classification criterion;
Using the learned water-based criterion, water areas are classified in the obtained image fragments, image fragments of the separated water areas are merged through object adjacency analysis, and water boundary is extracted A water boundary extracting unit; And
And a tidal flat contour extracting unit for extracting contour lines of the tidal flat area by superimposing the extracted water boundary on a time basis,
The image merge unit calculates an average spectral vector of the divided image segments using the Full Lambda Schedule technique to measure the similarity, accumulates the measured similarity in order of magnitude, and calculates an upper predetermined percentage (%) value Determining a degree of similarity having the similarity degree as the threshold value, merging image pieces having a degree of similarity larger than the determined threshold value,
The Full Lambda Schedule technique is expressed by the following equation,
Figure 112018104081760-pat00020

remind
Figure 112018104081760-pat00021
I &lt; / RTI &gt;
Figure 112018104081760-pat00022
Quot;
Figure 112018104081760-pat00023
Area,
Figure 112018104081760-pat00024
Quot;
Figure 112018104081760-pat00025
Average spectral characteristic vector &lt; RTI ID = 0.0 &
Figure 112018104081760-pat00026
Quot;
Figure 112018104081760-pat00027
Wow
Figure 112018104081760-pat00028
And the length of the boundary of the tidal flats in the tidal flat area.
제 1 항에 있어서,
상기 영상 조각 분할부는,
상기 생성된 그래디언트 영상에 스케일 레벨(scale level)을 적용하여 임계값을 결정하고, 상기 결정된 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 상기 결정된 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점을 이용하여 복수의 영상 조각으로 분할하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치.
The method according to claim 1,
Wherein the image fragment dividing unit comprises:
A threshold value is determined by applying a scale level to the generated gradient image and a local minimum point having a gradient value higher than the determined threshold value is considered without considering a local minimum point having a gradient value lower than the determined threshold value, A device for extracting tibia information in a tidal flat area using a dron which divides the image into a plurality of image fragments by using the drones.
삭제delete 제 1 항에 있어서,
상기 수계 판별 기준 학습부는,
상기 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 장치.
The method according to claim 1,
Wherein the water-
Extracting at least one of an average brightness value, an area, and a texture characteristic of the pixels constituting each piece, analyzing it using a supervisory classification method,
드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법에 있어서,
DGPS(Differential Global Positioning System) 측량을 통하여 갯벌 지역의 지상기준점 측량을 수행하는 단계;
항공삼각측량을 위해서, 드론을 활용하여 일정 시간 간격으로 상기 갯벌 지역에 대한 항공영상을 촬영하는 단계;
상기 촬영된 항공영상을 이용하여 수치표면모형 및 정사영상을 생성하는 단계;
상기 정사영상에서 소정의 영역의 화소와 상기 소정의 영역을 둘러싸고 있는 주변 화소와의 밝기값 차이를 이용하여 그래디언트(gradient) 영상을 생성하는 단계;
상기 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하는 단계;
상기 복수의 영상 조각 각각에 대하여, 인접한 영상 조각들의 분광 특성이 일정 유사도 이상인 경우 상기 인접한 영상 조각들을 병합하는 단계;
상기 병합하는 단계를 통하여 획득된 영상 조각별로 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하는 단계;
상기 학습된 수계 판별 기준을 이용하여, 상기 획득된 영상 조각들에서 수계 지역을 구분하고, 상기 구분된 수계 지역의 영상 조각들을 객체 인접성 분석(object adjacency analysis)을 통하여 병합하여 수계 경계를 추출하는 단계; 및
상기 추출된 수계 경계를 시간대별로 중첩하여 갯벌 지역의 등고선을 추출하는 단계를 포함하며,
상기 인접한 영상 조각들을 병합하는 단계는, Full Lambda Schedule 기법을 사용하여 상기 분할된 복수의 영상 조각들의 평균 분광 벡터를 계산하여 유사도를 측정하고, 상기 측정된 유사도를 크기 순으로 누적하여 상위 소정의 퍼센트(%) 값을 가지는 유사도를 임계값으로 결정하며, 상기 결정된 임계값보다 큰 유사도를 가지는 영상 조각들을 병합하는 단계를 포함하고,
상기 Full Lambda Schedule 기법은 아래의 수학식으로 표현되며,
Figure 112019500466678-pat00029

상기
Figure 112019500466678-pat00030
는 i번째 영상 조각,
Figure 112019500466678-pat00031
는 상기
Figure 112019500466678-pat00032
의 면적,
Figure 112019500466678-pat00033
는 상기
Figure 112019500466678-pat00034
의 평균 분광 특성 벡터 및
Figure 112019500466678-pat00035
는 상기
Figure 112019500466678-pat00036
Figure 112019500466678-pat00037
의 연접 경계의 길이인 것을 특징으로 하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법.
In a method for extracting tibia information in a tidal flat area using a drone,
Performing a ground reference point survey of a tidal flat area through a DGPS (Differential Global Positioning System) survey;
Capturing aerial images of the tidal flat area at predetermined time intervals using a drone for aerial triangulation;
Generating a numerical surface model and an orthoimage using the photographed aerial image;
Generating a gradient image using a brightness difference between a pixel in a predetermined region and a surrounding pixel surrounding the predetermined region in the orthoimage;
Dividing the generated gradient image into a plurality of image segments by applying a watershed algorithm;
Merging the adjacent image fragments when the spectral characteristics of adjacent image fragments are greater than or equal to a certain degree of similarity, for each of the plurality of image fragments;
Extracting and analyzing characteristics of pixels constituting each piece of the image piece obtained through the merging step, and learning a water classification criterion;
Extracting a water body region from the acquired image pieces using the learned water based criterion and extracting a water body boundary by merging the image pieces of the separated water body region through object adjacency analysis ; And
And extracting contour lines of the tidal flat area by superimposing the extracted water boundary on a time zone basis,
The merging of the adjacent image fragments may include calculating a mean spectral vector of the plurality of divided image fragments using the Full Lambda Schedule technique to measure the similarity, accumulating the measured similarity in order of magnitude, Determining a degree of similarity having a value (%) as a threshold value, and merging image pieces having a degree of similarity larger than the determined threshold value,
The Full Lambda Schedule technique is expressed by the following equation,
Figure 112019500466678-pat00029

remind
Figure 112019500466678-pat00030
I &lt; / RTI &gt;
Figure 112019500466678-pat00031
Quot;
Figure 112019500466678-pat00032
Area,
Figure 112019500466678-pat00033
Quot;
Figure 112019500466678-pat00034
Average spectral characteristic vector &lt; RTI ID = 0.0 &
Figure 112019500466678-pat00035
Quot;
Figure 112019500466678-pat00036
Wow
Figure 112019500466678-pat00037
And the length of the boundary of the tidal flat using the dron.
제 5 항에 있어서,
상기 생성된 그래디언트(gradient) 영상에 watershed 알고리즘을 적용하여 복수의 영상 조각으로 분할하는 단계는,
상기 생성된 그래디언트 영상에 스케일 레벨(scale level)을 적용하여 임계값을 결정하고, 상기 결정된 임계값보다 낮은 그래디언트 값을 가지는 지역적 최저점은 고려하지 않고, 상기 결정된 임계값보다 높은 그래디언트 값을 가지는 지역적 최저점을 이용하여 복수의 영상 조각으로 분할하는 단계를 포함하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법.
6. The method of claim 5,
Wherein dividing the generated gradient image into a plurality of image segments by applying a watershed algorithm comprises:
A threshold value is determined by applying a scale level to the generated gradient image and a local minimum point having a gradient value higher than the determined threshold value is considered without considering a local minimum point having a gradient value lower than the determined threshold value, And dividing the image into a plurality of image segments by using the drones.
삭제delete 제 5 항에 있어서,
상기 각각의 조각을 구성하는 화소들의 특성을 추출하고 분석하여 수계 판별 기준을 학습하는 단계는, 상기 각각의 조각을 구성하는 화소들의 평균 밝기값, 면적 및 텍스쳐 특성 중의 적어도 하나를 추출하고 감독분류방식을 이용하여 분석하여 수계 판별 기준을 학습하는 단계를 포함하는 드론을 활용한 갯벌 지역에서의 갯골 정보 추출 방법.
6. The method of claim 5,
The step of extracting and analyzing the characteristics of the pixels constituting each of the fragments extracts at least one of the average brightness value, the area and the texture characteristic of the pixels constituting each piece, And extracting the tide information in the tidal flat area using the drone.
제 5 항, 제 6 항 또는 제 8 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
A computer-readable recording medium having recorded thereon a program for implementing the method of any one of claims 5, 6, and 8.
KR1020170021185A 2017-02-16 2017-02-16 Apparatus and method for extraction of tidal creeks in tidal flat zones using drone KR101924278B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170021185A KR101924278B1 (en) 2017-02-16 2017-02-16 Apparatus and method for extraction of tidal creeks in tidal flat zones using drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170021185A KR101924278B1 (en) 2017-02-16 2017-02-16 Apparatus and method for extraction of tidal creeks in tidal flat zones using drone

Publications (2)

Publication Number Publication Date
KR20180094702A KR20180094702A (en) 2018-08-24
KR101924278B1 true KR101924278B1 (en) 2019-02-22

Family

ID=63454369

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170021185A KR101924278B1 (en) 2017-02-16 2017-02-16 Apparatus and method for extraction of tidal creeks in tidal flat zones using drone

Country Status (1)

Country Link
KR (1) KR101924278B1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636749B (en) * 2018-12-04 2020-10-16 深圳市华星光电半导体显示技术有限公司 Image processing method
KR101965235B1 (en) * 2018-12-10 2019-04-03 주식회사 지오스토리 Method for distribution survey of seagrass using uav
CN109801306B (en) * 2019-01-22 2020-10-27 首都师范大学 Tidal ditch extraction method based on high resolution remote sensing image
KR102278467B1 (en) * 2019-04-29 2021-07-19 주식회사 에프엠웍스 Method and apparatus of real-time tracking a position using drones, traking a position system including the apparatus
KR102316960B1 (en) * 2019-11-28 2021-10-22 광운대학교 산학협력단 Method and apparatus for realtime object detection in unmanned aerial vehicle image
KR102567800B1 (en) * 2021-06-10 2023-08-16 이재영 Drone used 3d mapping method
KR102567799B1 (en) * 2021-06-18 2023-08-16 이재영 Drone used 3d mapping method
CN113670273B (en) * 2021-08-06 2024-03-12 诚邦测绘信息科技(浙江)有限公司 Beach soil environment detection method and system for mapping, storage medium and intelligent terminal
KR102526638B1 (en) * 2022-04-21 2023-04-28 (주) 지오씨엔아이 Time-series shoreline detection device using multi-time satellite image and artificial intelligence and driving method of the device
KR102486498B1 (en) * 2022-07-21 2023-01-10 한국해양과학기술원 System and method for detecting tidal-flat burrows and constructing tidal-flat ecological environment spatial information using image-based artificial intelligence object recognition
KR102486499B1 (en) * 2022-07-21 2023-01-10 한국해양과학기술원 System for exploring tidal-flat burrows using image-based artificial intelligence object recognition and method for constructing tidal-flat ecological environment spatial information using therof
KR102549885B1 (en) * 2022-08-03 2023-07-03 한국지질자원연구원 3-dimension modeling method and system for geological element of true cross section
CN115761174B (en) * 2022-11-18 2024-05-03 河海大学 Laser radar-based embankment service life monitoring method and system and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101488214B1 (en) * 2014-07-11 2015-01-30 (주)지오시스템리서치 Apparatus for monitoring geographical features change of intertidal zone using image pictured by camera and the method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100371100B1 (en) * 2000-01-05 2003-02-05 강현철 Segmentation Method Using Restricted Waterfall Algorithm for Vehicle Licence Plate Recognition System
KR100545742B1 (en) * 2003-12-19 2006-01-24 한국전자통신연구원 Automatic Classification of Multispectral Image Using Network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101488214B1 (en) * 2014-07-11 2015-01-30 (주)지오시스템리서치 Apparatus for monitoring geographical features change of intertidal zone using image pictured by camera and the method thereof

Also Published As

Publication number Publication date
KR20180094702A (en) 2018-08-24

Similar Documents

Publication Publication Date Title
KR101924278B1 (en) Apparatus and method for extraction of tidal creeks in tidal flat zones using drone
KR101933216B1 (en) River topography information generation method using drone and geospatial information
Straatsma et al. Floodplain roughness parameterization using airborne laser scanning and spectral remote sensing
Di et al. Automatic shoreline extraction from high-resolution IKONOS satellite imagery
Ni et al. Mapping three-dimensional structures of forest canopy using UAV stereo imagery: Evaluating impacts of forward overlaps and image resolutions with LiDAR data as reference
Gjermundsen et al. Assessment of multispectral glacier mapping methods and derivation of glacier area changes, 1978–2002, in the central Southern Alps, New Zealand, from ASTER satellite data, field survey and existing inventory data
Barrand et al. Optimizing photogrammetric DEMs for glacier volume change assessment using laser-scanning derived ground-control points
CN111951392A (en) Beach above-dry-water-level terrain reconstruction method based on time-series remote sensing images and water level monitoring data
Bryson et al. Geomorphic changes of a coral shingle cay measured using kite aerial photography
Taddia et al. UAVs to assess the evolution of embryo dunes
Starek et al. Small-scale UAS for geoinformatics applications on an island campus
Nikolakopoulos et al. UAVs for the rapid assessment of the damages in the coastal zone after a storm
Kim et al. Feasibility of UAV photogrammetry for coastal monitoring: a case study in Imlang Beach, South Korea
Liu et al. Architecture planning and geo-disasters assessment mapping of landslide by using airborne LiDAR data and UAV images
Wilkowski et al. The use of unmanned aerial vehicles (drones) to determine the shoreline of natural watercourses
Song et al. Preliminary 3D assessment of coastal erosion by data integration between airborne LiDAR and DGPS field observations
Wang et al. Canopy extraction and height estimation of trees in a shelter forest based on fusion of an airborne multispectral image and photogrammetric point cloud
Su et al. Hierarchical moving curved fitting filtering method based on LIDAR data
Liu et al. Accuracy evaluation of ALOS DEM with airborne LiDAR data in Southern Taiwan
Graham et al. Remote sensing applications for hedgerows
Asghar Landslide mapping from analysis of UAV-SFM point clouds
Andaru et al. Post-eruption lava dome emplacement measured by UAV photogrammetry: An investigation one year after the 2017–2019 Mt. Agung eruptions
Giffen et al. Alaska: Glaciers of Kenai Fjords National Park and Katmai National Park and Preserve
Panalaran et al. Analysis Of Shoreline Changes On Krui Bay, West Coast Of Lampung Province
Liu et al. Use of UAV Photogrammetry for Monitoring Topographic Changes in the Tottori Sand Dunes, Japan

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant