KR101510203B1 - Land and City Monitoring Method Using Hyper Spectral Images - Google Patents

Land and City Monitoring Method Using Hyper Spectral Images Download PDF

Info

Publication number
KR101510203B1
KR101510203B1 KR20140164333A KR20140164333A KR101510203B1 KR 101510203 B1 KR101510203 B1 KR 101510203B1 KR 20140164333 A KR20140164333 A KR 20140164333A KR 20140164333 A KR20140164333 A KR 20140164333A KR 101510203 B1 KR101510203 B1 KR 101510203B1
Authority
KR
South Korea
Prior art keywords
dsm
image
hyper
region
detection system
Prior art date
Application number
KR20140164333A
Other languages
Korean (ko)
Inventor
임상문
임은성
권오섭
Original Assignee
(주)아세아항측
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아세아항측 filed Critical (주)아세아항측
Priority to KR20140164333A priority Critical patent/KR101510203B1/en
Application granted granted Critical
Publication of KR101510203B1 publication Critical patent/KR101510203B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Tourism & Hospitality (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)

Abstract

The present inventions relates to a land and city monitoring method using hyper-spectral images and, more specifically, relates to a land and city monitoring method using hyper-spectral images of which an accuracy detection of an artificially modified area have been improved by: generating DSM from hyper-spectral images of an area taken at different times; extracting the modified areas from the computation of the superimposed image; and excluding the extracted water areas and vegetated areas from the spectral characteristics of the hyper-spectral images. The method comprises: (S10) a step of inputting two or more hyper-spectral images of the same area, the exterior orientation parameter of the hyper-spectral images, and the photography information of the hyper-spectral camera which was used to take the hyper-spectral images into a detection system; (S20) a step of calculating the relative orientation of the hyper-spectral images performed by the detection system to which the image data were inputted; (S30) a step of generating the digital surface model (DSM) based on the shape edges and conjugations between the hyper-spectral images confirmed by the detection system with the relative orientation; (S40) a step of superimposing the DSM where the detection system superimposes the DSM of the same area taken at different times, calculates the difference in the height of each section which are equally divided, and confirms with the transformed area; and (S50) a step of detecting the modified areas where the detection system extracts the water areas and vegetated areas using the spectral information of the hyper-spectral images and excludes the extracted areas from the modified areas.

Description

하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법{Land and City Monitoring Method Using Hyper Spectral Images}Field of the Invention < RTI ID = 0.0 > Field < / RTI >

본 발명은 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법에 관한 것으로, 보다 상세하게는, 서로 다른 시기에 동일한 지역이 촬영된 하이퍼스펙트럴 영상으로부터 DSM를 생성하고, DSM의 중첩연산을 통해 변화된 지역을 추출한 후, 하이퍼스펙트럴 영상의 분광특성 정보로부터 추출된 수(水) 영역과 식생영역을 변화된 지역에서 제외시킴으로써, 인공적인 변화지역의 탐지 정확도를 향상시킨 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법에 관한 것이다.The present invention relates to a method and apparatus for monitoring a land and a city using a hyperspectral image. More particularly, the present invention relates to a method of generating a DSM from a hyperspectral image in which the same region is photographed at different times, And then exclude the water and vegetation areas extracted from the spectroscopic information of the hyperspectral image from the changed areas to thereby detect the local and urban areas using the hyperspectral image enhanced detection accuracy of the artificial change area ≪ / RTI >

분광특성(Spectral properties)이란, 빛의 파장과 물질 간의 상호특성을 의미한다. Spectral properties refer to the wavelengths of light and the mutual properties between the materials.

하이퍼스펙트럴 영상(Hyper Spectral Images)이란, 대상물로부터 수십 개에서 수백 개의 연속된 분광밴드를 센서를 통해 취득하여 지표와 식생의 다양한 정보에 대한 식별이 가능한 영상이다. 따라서 하이퍼스펙트럴 영상 내 대상물이미지에서 방출되거나 흡수되는 스펙트럼 특성을 분석하면 대상물이미지 간의 구분과 식별이 가능하다.Hyper Spectral Images is an image that can acquire various information of the indicator and vegetation by acquiring dozens to hundreds of consecutive spectral bands from the object through the sensor. Therefore, analyzing the spectral characteristics emitted or absorbed in the object image in the hyperspectral image makes it possible to identify and distinguish between object images.

수치표면자료(DSM: Digital Surface Model)란, 실세계 모든 정보 즉, 지형, 수목, 인공구조물 등을 3차원으로 표현한 수치모델로서, 간단하게는 지표의 표면을 나타낸 자료이다.Digital Surface Model (DSM) is a numerical model that represents all the information in the real world, that is, terrain, trees, artificial structures, etc. in three dimensions.

수치지도(Digital Map)는 지형지물(feature)에 대한 위치와 형상을 좌표데이터(coordinate)로 나타내어 전산처리가 가능한 형태로 표현한 지도를 말하며, 일반적으로 자동화된 시스템에 의하여 중ㆍ대축척 지형도나 현황도를 작성하여 수치화한 지도를 말한다. 관련 규정에 의한 수치지도는 지형, 지물, 지명 등의 각종 지형정보와 이와 관련된 사항을 수치화한 후 전산시스템을 이용하여 이를 분석, 편집 및 입출력할 수 있도록 제작된 수치지형도, 수치주제도 등을 의미한다. A digital map is a map in which the position and shape of a feature are expressed in coordinate form and expressed in a form that can be processed in an electronic form. Generally, And the map is a numerical value. The numerical map according to the related regulations means numerical topographic maps and numerical thematic maps designed to analyze, edit, input and output the digital terrain information such as terrain, do.

모니터링(Land Monitoring)이란, 인공위성센서 영상과 항공센서 영상 등의 공간영상정보를 통합 활용하여 국토와 도시의 변화정보를 모니터링 함으로써 국토개발의 계획적 관리, 도시계획 및 관리, 재해/재난관리, 난개발 방지 등의 업무에 필요한 국토변화정보에 대한 공간 속성정보를 중앙부처 및 공공기관 등의 사용자에게 제공하는 작업이다.Monitoring (Land Monitoring) is a system that monitors the change of land and city by utilizing spatial image information such as satellite sensor image and aerial sensor image, so as to plan and manage the development of the land, urban planning and management, disaster / disaster management, And the like, to the users of central government departments and public institutions.

중첩 연산이란, 동일 공간상에서 2개 이상의 주제도(영상)에 대해 연산하는 것으로서, 플러스 연산, 마이너스 연산, 곱하기 연산, 나누기 연산 등, 수학 연산자를 이용하여 연산결과를 얻어내는 과정을 의미한다.The superposition operation refers to a process of calculating two or more subject images (images) in the same space, and acquiring an operation result using a mathematical operator such as a plus operation, a minus operation, a multiplication operation, and a division operation.

종래에는 모니터링을 위하여 위성영상으로부터 변화지역을 육안으로 대략 탐지하고 있으나, 이러한 방법으로는 정확한 위치와 변화량을 관측하기 어려운 문제점이 있었다.Conventionally, the change area is detected from the satellite image by the naked eye for monitoring, but there is a problem that it is difficult to observe the accurate position and the change amount by such a method.

또한, 동일한 지역을 촬영한 영상이미지도 계절 변화에 따라 식생과 수면 상태에 차이를 보이므로, 일반적인 영상이미지만으로는 해당 지역의 변화 여부 판단과, 변화 지점 추적에 한계가 있었다.In addition, the video image taken in the same area shows differences in vegetation and sleep state according to the seasonal changes. Therefore, there is a limitation in judging whether the area is changed or not and tracking the change point only by a general image.

이에 본 발명은 상기와 같은 문제를 해소하기 위해 발명된 것으로서, 국토의 변화 위치와 형상을 간단하면서 정확하게 파악하고, 서로 다른 시기에 동일한 지역이 촬영된 항공사진으로부터 DSM를 생성한 후 중첩공간분석을 수행해서, 변화된 지역을 간단하게 탐지할 수 있는 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법의 제공을 해결하고자 하는 과제로 한다.Accordingly, the present invention was invented to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for easily and accurately grasping the position and shape of a change in land and generating a DSM from aerial photographs taken at different times, And to provide a method of monitoring a land and a city using a hyperspectral image that can simply detect a changed area.

상기 과제를 해결하기 위한 본 발명은In order to solve the above problems,

동일 지역이 촬영된 2장 이상의 하이퍼스펙트럴 영상과, 상기 하이퍼스펙트럴 영상의 외부표정요소와, 상기 하이퍼스펙트럴 영상을 촬영한 초분광 카메라의 촬영정보를 탐지시스템이 수신하는 영상데이터 입력단계(S10);An image data input step in which the detection system receives the photographing information of the hyperspectral camera in which at least two hyperspectral images of the same region are photographed, an external facial expression element of the hyperspectral image, S10);

상기 영상데이터를 수신한 상기 탐지시스템이 상기 하이퍼스펙트럴 영상의 상호표정을 수행하는 상호표정 단계(S20);(S20) the detection system receiving the image data performs mutual expression of the hyperspectral image;

상기 탐지시스템이 상기 상호표정을 통해 확인한 상기 하이퍼스펙트럴 영상들 간의 형상경계점과 공액점을 기반으로 수치표면자료(DSM)를 생성하는 DSM 생성단계(S30);A DSM generation step (S30) of generating a numerical surface data (DSM) based on a shape boundary point and a conjugate point between the hyperspectral images identified by the detection system through the mutual expression;

상기 탐지시스템이 서로 다른 시기의 동일 지역에 대한 수치표면자료(DSM)를 이미지 중첩하고, 일정하게 구획된 구간별 높이 차를 연산해서 변환지역으로 확인하는 DSM 중첩단계(S40); 및A DSM superimposing step (S40) in which the detection system superimposes the image of the numerical surface data (DSM) for the same region at different times, and calculates the height difference of the constantly segmented regions to confirm the converted region; And

상기 탐지시스템이 상기 하이퍼스펙트럴 영상의 분광정보를 이용해서 수영역과 식생영역을 추출하고, 상기 수영역과 식생영역을 상기 변화지역에서 제외하는 변화구역 탐지단계(S50);(S50) a detection region extracting a water region and a vegetation region by using the spectroscopic information of the hyperspectral image, and excluding the water region and the vegetation region from the change region;

를 포함하는 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법이다.And a method of monitoring the land and the city using the hyperspectral image.

상기의 본 발명은, 하이퍼스펙트럴 영상의 분광특성을 이용하여 수면 변화와 계절에 따른 식생 변화에 상관없이 국토와 도시의 정확한 변화정보를 정확히 생성할 수 있으므로, 국토개발의 계획적 관리, 도시계획 및 관리, 재해/재난관리, 난개발 방지 등의 업무에 활용할 수 있다. Since the present invention can precisely generate accurate change information of the land and the city regardless of the change of the water surface and the vegetation change according to the season by using the spectral characteristic of the hyperspectral image, Management, disaster / disaster management, prevention of over development.

또한 수치지형도 수정사업에 있어 판독공정의 예산을 절감하고, 정량적인 변화율을 판단할 수 있게 하므로, 저비용 고품질의 지도수정제작에도 활용할 수 있다. 아울러, 수치지형도 제작에서 변화지역의 탐지를 통해 판독위치를 미리 알게 되므로 수정대상의 누락방지에도 큰 효과가 있다.In addition, it is possible to reduce the budget of the reading process and determine the quantitative change ratio in the digital topographical correction business, and thus it can be utilized in the production of low cost and high quality map correction. In addition, since the reading position is known in advance through the detection of the change area in the digital topographic map production, it is very effective in preventing omission of the correction target.

도 1은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법의 순서도이다.
도 2는 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법에서, 영상데이터 입력단계의 세부 단계를 도시한 순서도이다.
도 3은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법에서, DSM의 생성단계의 세부 단계를 도시한 순서도이다.
도 4는 본 발명의 실시예에 따른 형상경계영상 연산자를 적용하여 생성된 형상경계영상 화면이다.
도 5는 본 발명의 실시예에 따라 수행된 형상경계점 탐색결과를 나타낸 화면이다.
도 6은 본 발명의 일 실시예에 따른 DSM의 중첩 연산을 통하여 변화구역을 탐지하는 과정의 설명도이다.
도 7은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법에서, 분광특성을 이용하여 생성된 수영역과 식생 영역을 변화구역에서 제외시키는 방법을 도시한 순서도이다.
도 8은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 모니터링 방법에서, 수영역 및 식생 영역을 생성하는 단계의 세부 단계를 도시한 순서도이다.
도 9는 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법에서, 수영역 및 식생영역 제외 탐지단계를 수행하기 전후의 결과를 비교한 결과이다.
1 is a flowchart of a method for monitoring a land using a DSM and spectral characteristic information of a hyperspectral image according to an exemplary embodiment of the present invention.
FIG. 2 is a flowchart illustrating sub-steps of an image data input step in a method of monitoring a land using DSM and spectral characteristic information of a hyperspectral image according to an embodiment of the present invention.
3 is a flowchart illustrating detailed steps of a DSM generation step in a method of monitoring a land using a DSM and spectral characteristic information of a hyperspectral image according to an exemplary embodiment of the present invention.
4 is a shape boundary image generated by applying a shape boundary image operator according to an embodiment of the present invention.
5 is a view showing a shape boundary point search result performed according to an embodiment of the present invention.
FIG. 6 is an explanatory diagram of a process of detecting a change area through a superposition operation of a DSM according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method of excluding a water region and a vegetation region generated using spectral characteristics from a change region in a method of monitoring a land using a DSM and spectroscopic characteristic information of a hyperspectral image according to an embodiment of the present invention to be.
FIG. 8 is a flowchart illustrating sub-steps of generating a water region and a vegetation region in a monitoring method using DSM and spectroscopic characteristic information of a hyperspectral image according to an embodiment of the present invention.
9 is a graph showing the results of comparing the results before and after the detection of the water area and the vegetation area excluded in the monitoring method using the DSM and the spectroscopic characteristic information of the hyperspectral image according to the embodiment of the present invention.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.
BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It will be possible. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광특성 정보를 이용한 국토 모니터링 방법의 순서도이다. 본 순서도를 참고해서 본 실시예에 따른 모니터링방법 전체를 우선 설명한다.1 is a flowchart of a method for monitoring a land using a DSM and spectral characteristic information of a hyperspectral image according to an exemplary embodiment of the present invention. The entire monitoring method according to this embodiment will be described first with reference to this flowchart.

S10; 영상데이터 입력단계S10; Image data input step

동일한 지역이 촬영된 2장 이상의 하이퍼스펙트럴 영상(초분광 영상)을 모니터링시스템의 표정처리모듈(미도시함)에 입력하는 영상 입력단계(S11), 촬영 당시의 위치와 자세정보 등의 외부표정요소를 상기 표정처리모듈에 입력하는 외부표정요소 입력단계(S12), 하이퍼스펙트럴 영상을 촬영한 초분광 카메라의 각 초점거리를 상기 표정처리모듈에 입력하는 초점거리 입력단계(S13)를 포함한다. 상기 외부표정요소는 통상의 초분광 카메라에 장착된 GPS/INS 장비에 의해 간단하게 취득이 가능하다.
An image input step (S11) of inputting two or more hyperspectral images (superspectral images) in which the same region is photographed to a facial expression processing module (not shown) of the monitoring system, an external expression such as position and attitude information at the time of photographing (S12) for inputting an element to the facial expression processing module (S12), and a focal distance input step (S13) for inputting each focal distance of the hyperspectral camera that has captured the hyperspectral image to the facial expression processing module . The external facial element can be easily acquired by a GPS / INS equipment mounted on a conventional ultrasonic camera.

S20; 상호표정 단계S20; Step of mutual expression

상기 하이퍼스펙트럴 영상들의 상호 간 관계를 고려하여 상기 표정처리모듈이 상기 하이퍼스펙트럴 영상의 일정한 기하학적 상관관계인 에피폴라 기하모델을 연산 및 도출한다.The facial expression processing module calculates and derives an epipolar geometric model, which is a constant geometric correlation of the hyperspectral image, taking into account the interrelationship of the hyperspectral images.

주지된 바와 같이, 서로 다른 각도에서 촬영된 동일 구간에 대한 영상들 간의 상호표정 처리는 에피폴라 기하모델 연산을 통해 이루어지며, 두 영상 간의 공선, 공면 조건 등을 도출한다. 다수 영상 간의 상호표정 처리 방법과 기술은 공지,공용의 기술이므로, 구체적인 연산식과 연산과정에 대한 설명은 생략한다.
As is well known, the mutual expression processing between images of the same section photographed at different angles is performed through an epipolar geometric model operation, and the collinearity and coplanar conditions between the two images are derived. Since the methods and techniques for processing the mutual facial expression between multiple images are known and common techniques, detailed description of calculation formulas and calculation processes will be omitted.

S30; DSM 생성단계S30; DSM creation step

상기 모니터링시스템의 DSM생성모듈(미도시함)이 상기 에피폴라 기하모델을 기초로 수치표면자료(이하 'DSM') 생성을 위해 형상경계점을 탐색하는 형상경계영상 설정단계(S31), 공액점 선정단계(S32), DSM 생성단계(S33)를 포함한다.
A shape boundary image setting step S31 for searching a shape boundary point to generate a numerical surface data (DSM) based on the epipolar geometric model, a DSM generation module (not shown) of the monitoring system, (S32), and a DSM generation step (S33).

S40; DSM 중첩단계S40; DSM nesting step

상기 모니터링시스템의 탐지모듈(미도시함)은 DSM 생성단계(S30)에서 생성한 비교 대상의 DSM들을 높이 비교가 가능하도록 중첩하고, 확인된 높이 차를 연산하며, 높이 차가 발생한 지점을 확인한다.
The detection module (not shown) of the monitoring system superimposes the DSMs of the comparison objects generated in the DSM generation step (S30) so that the height can be compared, calculates the height difference that has been ascertained, and confirms the point where the height difference occurs.

S50; 변화구역 탐지단계S50; Step of Detecting Change Areas

상기 탐지모듈이 탐지 대상의 비교범위를 설정하는 탐지크기 설정단계(S51), 신생지역의 발생 여부와 지점을 탐지하는 신생지역 탐지단계(S52), 소멸지역의 발생 여부와 지점을 탐지하는 소멸지역 탐지단계(S53)와, 하이퍼스펙트럴 영상의 분광특성을 이용하여 하이퍼스펙트럴 영상으로부터 추출된 수(水)영역 및 식생영역을 변화구역에서 제외하는 제외영역 탐지단계(S54)를 포함한다.
A detection size setting step (S51) of setting the detection range of the detection range of the detection module, a new area detection step (S52) of detecting the occurrence of a new area and a point, a deletion area Detection step S53 of extracting the water region and the vegetation region extracted from the hyperspectral image using the spectroscopic characteristics of the hyperspectral image.

S60; 탐지구역 출력단계S60; Detection zone output stage

상기 탐지모듈이 변화구역을 탐지한 결과, 신규로 지형지물이 생겨난 경우와 기존의 지형지물이 사라진 경우를 탐지하여 출력한다.
As a result of detecting the change area, the detection module detects a case where a new feature is generated and a case where the existing feature disappears, and outputs the detected result.

S70; 오류 검사단계S70; Error Checking Phase

상기 모니터링시스템의 오류검사모듈(미도시함)이 탐지 결과에 대한 오류 여부를 검사하고 오류가 확인되면 변화구역 탐지단계(S50)를 반복 실시하고, 오류가 확인되지 않으면 작업을 종료한다.
An error checking module (not shown) of the monitoring system examines whether the detection result is erroneous or not. When the error is confirmed, the changing area detecting step (S50) is repeatedly performed.

도 2는 본 발명의 실시예에 따른 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법에서, 영상데이터 입력단계의 세부 단계를 도시한 순서도이다. FIG. 2 is a flowchart illustrating details of a step of inputting image data in a method for monitoring land and city using a hyperspectral image according to an exemplary embodiment of the present invention.

S11; 영상입력 단계S11; Image input step

동일한 지역을 포함해 촬영된 2장 이상의 하이퍼스펙트럴 영상을 상기 표정처리모듈에 입력한다. 일반적으로 하이퍼스펙트럴 촬영은 이동 중인 항공기에서 고속으로 이루어지므로, 1대의 초분광 카메라가 연속해 촬영한 하이퍼스펙트럴 영상은 동일한 지역을 공유한다. 따라서 상기 표정처리모듈에는 동일한 지역을 촬영했으나 촬영각이 다른 2장 이상의 하이퍼스펙트럴 영상이 입력된다.
Two or more hyperspectral images photographed including the same region are input to the facial expression processing module. Generally, since the hyperspectral photography is performed at a high speed on the moving aircraft, the hyperspectral camera continuously photographed by one ultra-spectral camera shares the same area. Therefore, two or more hyperspectral images of the same region but different imaging angles are input to the facial expression processing module.

S12; 외부표정 입력단계S12; External expression input step

하이퍼스펙트럴 영상에 해당하는 2장 이상의 외부표정요소를 상기 표정처리모듈에 입력하는 외부표정요소 입력단계(S121), 입력된 외부표정요소가 작업 대상구역 내의 자료인지 여부를 상기 표정처리모듈이 해당 좌표를 점검하는 작업대상구역 확인단계(S122), 작업 대상구역인 경우 하이퍼스펙트럴 영상의 모델 구성을 위한 모델명을 생성하는 모델명 구성단계(S123)를 포함한다. An external facial expression element input step (S121) for inputting at least two external facial expression elements corresponding to the hyperspectral image to the facial expression processing module, a step of determining whether the facial expression processing module (S122) for checking coordinates, and a model name constructing step (S123) for generating a model name for model construction of a hyperspectral image in the case of a work subject area.

주지된 바와 같이, 서로 다른 각도에서 촬영된 동일 구간에 대한 영상들 간의 상호표정 처리는 에피폴라 기하모델 연산을 통해 이루어지며, 두 영상 간의 공선, 공면 조건 등을 도출한다. 다수 영상 간의 상호표정 처리 방법과 기술은 공지,공용의 기술이므로, 구체적인 연산식과 연산과정에 대한 설명은 생략한다.
As is well known, the mutual expression processing between images of the same section photographed at different angles is performed through an epipolar geometric model operation, and the collinearity and coplanar conditions between the two images are derived. Since the methods and techniques for processing the mutual facial expression between multiple images are known and common techniques, detailed description of calculation formulas and calculation processes will be omitted.

S13; 초점거리 입력단계S13; Focal length input step

하이퍼스펙트럴 영상 내 한 픽셀의 지상점유 크기를 하이퍼스펙트럴 영상의 지상해상도로 상기 표정처리모듈에 입력하는 영상지상해상도 입력단계(S131), 상기 초분광 카메라에 대한 초점거리를 상기 표정처리모듈에 입력하는 초점거리 입력단계(S132), 상기 표정처리모듈이 하이퍼스펙트럴 영상의 투영중심을 원점으로 해서 사진좌표로 변환 및 점검하고 오류확인 시 영상지상해상도 입력단계(S131)를 반복시키는 내부표정 점검단계(S133), 상기 표정처리모듈이 초분광 카메라의 초점거리와 항공 하이퍼스펙트럴 영상으로 구성된 모델을 완성하는 단계(134S)를 포함한다.
An image ground resolution input step (S131) of inputting the ground occupancy size of one pixel in the hyperspectral image to the facial expression processing module in the ground resolution of the hyperspectral image, a step of inputting the focal distance to the facial expression processing module (S132), the facial expression processing module converts and checks the projection center of the hyperspectral image as the origin of the image, and repeats the step of inputting the image ground resolution (S131) (S133), and the facial expression processing module includes a step (134S) of completing a model composed of the focal length of the ultrasound camera and the aerial hyperspectral image.

도 3은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법에서, DSM 생성단계의 세부 단계를 도시한 순서도이다.3 is a flowchart illustrating detailed steps of a DSM generation step in a method of monitoring a land and a city using a hyperspectral image according to an exemplary embodiment of the present invention.

S31; 형상경계영상 설정단계S31; Shape boundary image setting step

상기 DSM생성모듈이 하이퍼스펙트럴 영상으로부터 형상경계영상을 생성하기 위해서는 형상경계연산자를 정의하는 단계(S311)를 수행해야 하는데, 영상의 평활화는 [수학식 1]로 표시되는 가우시안(Gaussian) 연산자와, [수학식 2]로 표시되는 라플라시안(Laplacian) 연산자를 사용한다.
In order for the DSM generation module to generate the shape boundary image from the hyperspectral image, a step S311 of defining a shape boundary operator must be performed. The smoothing of the image is performed by a Gaussian operator represented by Equation (1) , And a Laplacian operator expressed by the following equation (2).

Figure 112014113176884-pat00001
Figure 112014113176884-pat00001

[수학식 1]에서 x와 y는 직교좌표계에서 화소가 위치한 좌표의 수치를 의미하고, σ는 표준편차, e는 자연상수, r은 좌표계에서 두 점간의 직선 거리를 의미한다.
In Equation (1), x and y mean the values of the coordinates at which the pixel is located in the Cartesian coordinate system, σ is the standard deviation, e is the natural constant, and r is the straight line distance between two points in the coordinate system.

Figure 112014113176884-pat00002
Figure 112014113176884-pat00002

[수학식 2]에서 x와 y는 도함수를 취하기 위한 화소의 거리를 의미하는 것으로, ∇는 x,y를 편미분한 결과값이다.
In Equation (2), x and y mean the distance of a pixel to take a derivative, and ∇ is a result obtained by partially differentiating x and y.

상기 DSM생성모듈은 [수학식 1]의 가우시안(Gaussian) 연산자와 수학식 2의 라플라시안(Laplacian) 연산자를 결합하여 상기 형상경계연산자를 [수학식 3]으로 정의한다.
The DSM generation module combines the Gaussian operator of Equation (1) with the Laplacian operator of Equation (2) to define the shape boundary operator as Equation (3).

Figure 112014113176884-pat00003
Figure 112014113176884-pat00003

[수학식 3]에서 σ은 표준편차이고, e는 자연상수이며, r은 좌표계에서 두 점간의 직선 거리를 의미한다.
In Equation (3),? Is the standard deviation, e is a natural constant, and r is the straight line distance between two points in the coordinate system.

형상경계연산자 정의단계(S311)를 통해 형상경계연산자가 정의되면, 상기 DSM생성모듈은 변화를 탐지하고자 하는 대상 하이퍼스펙트럴 영상에 상기 형상경계연산자를 적용하여 형상경계영상을 생성하는 형상경계영상 생성단계(S312)를 진행한다.If a shape boundary operator is defined through a shape boundary operator definition step S311, the DSM generation module generates a shape boundary image by applying the shape boundary operator to a target hyperspectral image to detect a change, The process proceeds to step S312.

형상경계영상 생성단계(S312)에서 생성한 형상경계영상은 좌측영상과 우측영상 한 쌍의 입체모델을 구성하는데, 본 실시 예에서 좌측을 기준영상으로 하여 우측영상에 해당하는 탐색영역의 크기(가로픽셀 및 세로픽셀) 지정을 위한 공액점 선정단계(S32)를 진행한다. The shape boundary image generated in the shape boundary image generation step (S312) constitutes a stereoscopic model of a pair of left and right images. In the present embodiment, the size of the search area corresponding to the right image Pixel and a vertical pixel) in step S32.

도 4는 본 발명의 일 실시예에 따른 형상경계영상 연산자를 적용해서 생성된 형상경계영상 화면으로서, 도 4의 (A)도면에서 보인 변화탐지 대상에 대해 형상경계영상 연산자를 적용하면 도 4의 (B)도면에서 보인 형상경계영상이 생성된다.
FIG. 4 is a shape boundary image generated by applying the shape boundary image operator according to an embodiment of the present invention. When a shape boundary image operator is applied to the change detection object shown in FIG. 4A, (B) a shape boundary image shown in the drawing is generated.

S32; 공액점 선정단계S32; Steps to Select a Confluence Point

계속해서, 상기 탐색영역의 크기 지정은 우측 영상의 대상구역을 일정한 범위 내로 이동시키면서 공액점을 찾는 방법으로 한다. 두 영상에서 현실세계의 한 점의 위치를 나타내는 공액점을 찾는 방법은 해당 영상의 전체 범위가 아닌 특정범위 안에서 영상에 담긴 지형지물의 형상과 밝기를 이용한다.Subsequently, the size designation of the search area is performed by moving the object area of the right image within a predetermined range and finding a conjugate point. The method of finding a conjugate point representing the position of a point in the real world in two images uses the shape and brightness of the feature contained in the image within a specific range rather than the entire range of the image.

형상경계영상이 생성되면, 상기 DSM생성모듈은 변화탐지 대상에 대해 상기 형상경계영상으로부터 공액점의 후보가 되는 형상경계 중의 교차점 배치 위치를 찾아내고, 상기 교차점 내 화소의 밝기값과 기준 밝기값 간의 상관계수를 산출하여 공액점을 선정한다. 상기 DSM생성모듈은 교차점의 화소 찾기를 [수학식 4]의 연산을 통해 수행한다.When the shape boundary image is generated, the DSM generation module finds an intersection placement position in the shape boundary that is a candidate for a conjugate point from the shape boundary image with respect to the change detection object, and determines a correlation between the brightness value of the pixel in the intersection and the reference brightness value Calculate the coefficient and select a conjugate point. The DSM generation module performs pixel search of the intersection through the calculation of Equation (4).

상기 DSM생성모듈은 상기 형상경계영상에서 경계가 교차하는 위치인 형상경계점 탐색단계(S321)를 수행한다. 이를 좀 더 구체적으로 설명하면, [수학식 3]의 형상경계연산자를 이용해 생성한 형상경계영상 I(x, y)을 적분 후 2차 미분하면 0이 되는 교차점을 발견할 수 있는데, 상기 교차점을 [수학식 4]로 표시되는 형상경계점으로 정의한다.
The DSM generation module performs a shape boundary point search step S321 in which the boundary intersects the shape boundary image. In more detail, when the shape boundary image I (x, y) generated by using the shape boundary operator of Equation (3) is integrated and then subjected to second differentiation, it is found that the intersection point becomes zero. Is defined as a shape boundary point expressed by Equation (4).

Figure 112014113176884-pat00004
Figure 112014113176884-pat00004

[수학식 4]에서 ∇2G(x, y)는 형상경계 연산자이고, I(x, y)는 형상경계영상이다.
In Equation (4), ∇ 2 G (x, y) is a shape boundary operator and I (x, y) is a shape boundary image.

도 5는 본 발명의 실시예에 따라 수행된 형상경계점 탐색결과를 나타낸 화면이다. 도 5의 (A)도면은 좌측 형상경계영상으로써 fo는 픽셀 밝기의 기준값을 의미하고, (B)도면은 우측 형상경계영상으로써 탐색영역(s*h) 내에서 상기 기준값인 fo와 공액점이 되는 후보들을 탐색한 결과(fn1 , fn2 , fn3 , ... fnn)를 형상경계점 연산을 통해 나타낸 것이다.5 is a view showing a shape boundary point search result performed according to an embodiment of the present invention. 5 (A) is a left shape boundary image, f o is a reference value of pixel brightness, (B) is a right shape boundary image, and the reference value f o and the conjugate point (Fn 1 , fn 2 , fn 3 ,..., Fnn) obtained through the search of candidate candidates are shown through the shape boundary point calculation.

탐색영역의 크기에 따라 우측 형상경계영상 내 형상경계점은 여러 개일 수 있다. 따라서 좌측 형상경계영상의 기준 밝기값을 기준으로 우측 형상경계영상 내 다수의 형상경계점들 중 공액점을 선정한다. Depending on the size of the search area, there may be several shape boundary points in the right shape boundary image. Accordingly, the conjugate point among the plurality of shape boundary points in the right shape boundary image is selected based on the reference brightness value of the left shape boundary image.

이를 좀 더 구체적으로 설명하면, 상기 DSM생성모듈은 공액점 후보들의 픽셀의 밝기값을 취득하고(밝기값 취득단계; S322), 밝기값 상관계수식인 [수학식 5]를 이용해서(상관계수 로딩단계; S323) 밝기값에 대한 최고 상관계수를 산출한다(상관계수 산출단계; S324). 상기 DSM생성모듈은 [수학식 5]를 이용해 산출한 상기 최고 상관계수에 대응하는 우측 형상경계영상의 형상경계점을 DSM 생성을 위한 공액점으로 선정한다(공액점 선정단계; S325).
More specifically, the DSM generation module obtains brightness values of the pixels of the conjugate point candidates (brightness value acquisition step S322), and calculates brightness values using the brightness value correlation coefficient expression (Equation 5) ; S323) calculates a maximum correlation coefficient for the brightness value (correlation coefficient calculating step: S324). The DSM generation module selects a shape boundary point of the right shape boundary image corresponding to the highest correlation coefficient calculated using Equation (5) as a conjugation point for DSM generation (S325).

Figure 112014113176884-pat00005
Figure 112014113176884-pat00005

Figure 112014113176884-pat00006

Figure 112014113176884-pat00006

상기 수학식 5에서 i = 1, …, n이며, 상기 n은 대상영역의 픽셀 수이고, gt는 기준영역이고, gs는 탐색영역이다.
In Equation (5), i = 1, ... , n, n is the number of pixels in the object region, g t is the reference region, and g s is the search region.

S33; DSM 격자자료 생성단계S33; Steps for creating DSM grid data

상기 DSM생성모듈은 공액점을 생성하면, 상기 공액점에 해당하는 하이퍼스펙트럴 영상 내 영상좌표가 입력되는 공액점 사진좌표 입력단계(S331)와, 상기 영상좌표를 지상좌표로 계산하는 지상좌표 계산단계(S332)와, DSM의 격자자료를 생성하는 단계(S333)를 순차 진행한다.When the DSM generation module generates a conjugate point, a conjugate point photograph coordinates input step (S331) for inputting the image coordinates in the hyperspectral image corresponding to the conjugation point, and a ground coordinate calculation step S332 And a step S333 of generating the lattice data of the DSM.

이를 좀 더 구체적으로 설명하면, 상기 DSM생성모듈은 생성된 공액점의 영상좌표를 [수학식 6]에 적용해서 지상좌표를 산출한다. DSM의 지상좌표는 [수학식 6]에서 최고 유사성을 가진 영상좌표(x, y)를 이용하여 결정될 수 있다. 상기 DSM생성모듈은 결정된 지상좌표를 DSM의 격자에 적용한다.
More specifically, the DSM generation module calculates the ground coordinates by applying the image coordinates of the generated conjugation point to Equation (6). The ground coordinates of the DSM can be determined using the image coordinates (x, y) having the highest similarity in Equation (6). The DSM generation module applies the determined ground coordinates to the lattice of the DSM.

Figure 112014113176884-pat00007
Figure 112014113176884-pat00007

Figure 112014113176884-pat00008

Figure 112014113176884-pat00008

[수학식 6]에서, X, Y 및 Z는 지상좌표이고; X0, Y0, Z0는 투영중심좌표이고; x 및 y는 최고 유사성을 가진 영상좌표이고; x0, y0는 영상좌표의 중심좌표이고; f는 초점거리이며; r11, r12, ···, r33는 회전행렬을 의미한다.
In Equation (6), X, Y and Z are ground coordinates; X 0 , Y 0 , Z 0 are the projection center coordinates; x and y are image coordinates with the highest similarity; x 0 , y 0 are the coordinates of the center of the image coordinate; f is the focal length; r 11 , r 12 , ..., r 33 denote the rotation matrix.

도 6은 본 발명의 일 실시예에 따른 DSM의 중첩 연산을 통하여 변화구역을 탐지하는 과정의 설명도인 바, 이를 참고하여 DSM 중첩연산과정 및 변화구역 탐지단계를 상세하게 설명하면 다음과 같다.FIG. 6 is an explanatory diagram illustrating a process of detecting a change area through a superposition operation of a DSM according to an exemplary embodiment of the present invention. Referring to FIG. 6, a DSM superposition operation process and a change area detection step will be described in detail.

S40; DSM 중첩단계S40; DSM nesting step

영상데이터 입력단계(S10), 상호표정 단계(S20), DSM 생성단계(S30)을 통해 동일한 지역에 대하여 과거에 촬영한 항공 하이퍼스펙트럴 영상(601)과 관련 영상데이터로부터 형상경계영상(602) 및 DSM(603)를 생성하고, 최근에 촬영한 항공 하이퍼스펙트럴 영상(604)과 관련 자료로부터 형상경계영상(605) 및 DSM(606)를 생성하면, 상기 탐지모듈은 서로 다른 시기에 수집 및 생성된 상기 두 개의 DSM(603, 605)을 서로 이미지 중첩해서 높이 차를 연산한다.
The shape boundary image 602 is extracted from the aerial hyperspectral image 601 captured in the past for the same area and related image data through the image data input step S10, the mutual expression step S20, and the DSM generation step S30, The DSM 603 and the shape boundary image 605 and the DSM 606 from the recently captured aerial hyperspectral image 604 and related data, The two DSMs 603 and 605 generated are superimposed on each other to calculate a height difference.

S50; 변화구역 탐지단계S50; Step of Detecting Change Areas

전술한 바와 같이, 상기 탐지모듈은 탐지 대상의 비교범위를 설정하는 탐지크기 설정단계(S51), 신생지역의 발생 여부와 지점을 탐지하는 신생지역 탐지단계(S52), 소멸지역의 발생 여부와 지점을 탐지하는 소멸지역 탐지단계(S53)를 포함한다.As described above, the detection module includes a detection size setting step (S51) for setting a comparison range of a detection object, a new area detection step (S52) for detecting a new area and detecting a point, And an extinction area detection step S53 for detecting the extinction area.

탐지크기 설정단계(S51)는 상기 탐지모듈이 탐색영역의 크기를 지정하는 단계로서, DSM(603, 605)의 격자 크기를 화소 단위로 설정해서 공액점을 탐색하는 시간을 단축한다. The detection size setting step S51 is a step in which the detection module designates the size of the search area and sets the grid size of the DSMs 603 and 605 on a pixel-by-pixel basis to shorten the time to search for a conjugate point.

신생지역 탐지단계(S52) 및 소멸지역 탐지단계(S53)는 상기 탐지모듈이 DSM(603, 606)에 각각 설정한 해당 격자들의 셀 수치(지형지물 표면의 높이)를 마이너스(-) 연산해서, 지형지물이 새로 생겨난 것으로 추정되는 구역을 탐지하거나, 지형지물이 소멸되거나 철거된 것으로 추정되는 구역을 산출한다. 참고로, 도 6에서 도면번호 '602' 및 '605'는 DSM 형상 중 현실세계의 단면을 도시한 것이고, '603' 및 '606'는 평면투시의 개념으로 DSM 격자자료를 의미한 것으로, 중첩연산을 설명하기 위해서 개념적으로 도시한 것이다.In the new area detection step S52 and the extinction area detection step S53, the detection module subtracts the cell values (height of the feature surface) of the corresponding lattices set by the DSMs 603 and 606, Detect areas where the feature is supposed to be new, or calculate areas where the feature is supposed to be extinguished or removed. In FIG. 6, reference numerals '602' and '605' denote cross-sections of a real world among DSM shapes, '603' and '606' denote DSM grid data as a concept of planar perspective, Is conceptually illustrated to illustrate the operation.

한편, DSM만을 이용할 경우, 스테레오 매칭에 의하여 수면의 높이 값이 정확하게 나타나지 않는다. 수면의 기복 변화에 따른 부정확한 변화탐지가 일어날 수 있으므로, 서로 다른 시기에 동일한 지역이 촬영된 항공사진으로부터 DSM를 생성하고, 중첩공간분석을 수행하여 변화지역을 산출한 다음, 분광정보를 이용하여 하이퍼스펙트럴 영상으로부터 추출한 수영역을 변화지역에서 제외할 경우, 수면 높이에 따른 변화가 제외될 수 있다. On the other hand, when the DSM alone is used, the height of the water surface does not appear accurately due to stereo matching. Since it is possible to detect inaccurate change due to the fluctuation of the water surface, DSM is generated from aerial photographs of the same area at different times, and an overlapping space analysis is performed to calculate a change area. Then, When the number region extracted from the hyperspectral image is excluded from the changing area, the change depending on the height of the water surface may be excluded.

또한 서로 다른 시기에 동일한 지역으로 자료를 취득하였으나 계절이 상이한 경우 식생의 변화에 따른 변화지역이 무수하게 일어나며, 모니터링의 주요 관심 대상이 인공적인 시설물의 변화가 주요 대상인 점을 감안한다면 식생지역의 분광정보를 이용하여 식생지역에 따른 변화 정보를 제외할 필요가 있다.In addition, when data are acquired at the same time at different times but the seasons are different, there are countless change areas due to changes in vegetation. Considering that the main concern of monitoring is the change of artificial facilities, It is necessary to exclude the change information according to vegetation area using information.

이렇게 수영역과 식생영역을 제외한다면 의미 있는 변화지역을 간단하고 더욱 정확하게 탐지할 수 있다.This excludes water and vegetation areas, so that meaningful change areas can be detected simply and more accurately.

이를 위해서 본 발명에 따른 모니터링시스템의 영역제외모듈(미도시함)은 하이퍼스펙트럴 영상의 분광정보을 이용해서 하이퍼스펙트럴 영상으로부터 추출된 수영역과 식생영역을 변화구역에서 제외한다(S54).
To this end, the region exclusion module (not shown) of the monitoring system according to the present invention uses the spectroscopic information of the hyperspectral image to exclude the water region and the vegetation region extracted from the hyperspectral image from the change region (S54).

도 7은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광정보를 이용한 국토 모니터링 방법에서, 분광정보를 이용하여 생성된 수영역을 변화구역에서 제외시키는 방법을 도시한 순서도이다. FIG. 7 is a flowchart illustrating a method of excluding a number region generated using spectral information from a change zone in a method of monitoring a land using a DSM and spectroscopic information of a hyperspectral image according to an exemplary embodiment of the present invention.

도면에서 보인 바와 같이, 동일한 지역이 촬영된 두 장 이상의 항공 하이퍼스펙트럴 영상(701)으로부터 상대적으로 과거 영상에 해당하는 DSM을 생성하고(702), 동일한 지역이 촬영된 두 장 이상의 영상(703)으로부터 상대적으로 최근 영상에 해당하는 DSM을 생성(704)한 후에 두 시기의 DSM을 서로 중첩 연산해서 변화지역을 추출한다(705). 본 실시 예에서는 DSM의 높이 차가 확인된 부분을 적색과 청색으로 구분 표시하는데, 여기서 적색은 높이가 상대적으로 커진 부분을 표시하고, 청색은 높이가 상대적으로 작아진 부분을 표시한다. 따라서 적색부분은 새로운 지상물이 생성된 부분으로 추정하고, 청색은 기존 지상물이 소멸한 부분으로 추정할 수 있다.As shown in the drawing, a DSM corresponding to a past image is generated from two or more aerial hyperspectral images 701 in which the same region is photographed (702), two or more images 703 photographed in the same region, A DSM corresponding to a recent image is generated (704), and then the DSMs of the two timings are superimposed on each other to extract a changed region (705). In this embodiment, the portion where the height difference of the DSM is identified is divided into red and blue, where red indicates a relatively large portion, and blue indicates a relatively small portion. Therefore, the red part can be assumed to be the part where the new ground water is generated, and the blue part can be estimated as the part where the existing ground water has disappeared.

계속해서, 상기 영역제외모듈은 하이퍼스펙트럴 영상(706)에 대한 수영역 및 식생영역 처리작업(707)을 수행해서, '708'에서 보인 수영역 및 식생영역을 생성한다. 상기 영역제외모듈은 이렇게 생성한 수영역 및 식생영역을 상기 변화지역(705)에 중첩시켜서 상기 수영역 및 식생영역을 제거한 새로운 변화구역(709)을 완성한다.
Subsequently, the area exclusion module performs a number area and a vegetation area processing operation 707 on the hyperspectral image 706 to generate a number area and vegetation area shown in '708'. The area exclusion module superimposes the water area and the vegetation area thus generated on the change area 705 to complete a new change area 709 in which the water area and the vegetation area are removed.

도 8은 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광정보를 이용한 국토 모니터링 방법에서, 수영역을 생성하는 단계의 세부 단계를 도시한 순서도이다. FIG. 8 is a flowchart illustrating sub-steps of generating a number region in a method of monitoring a land using DSM and spectroscopic information of a hyperspectral image according to an exemplary embodiment of the present invention.

하이퍼스펙트럴 영상(801)에서 수영역 처리(802) 및 식생영역 처리(803)를 수행하면 수영역 및 식생영역을 생성(804)할 수 있다. 이를 좀 더 구체적으로 설명하면, 하이퍼스펙트럴 영상으로부터 수영역에 해당하는 밝기값을 샘플링한 다음, 샘플링된 밝기값을 입력하는 단계(802a); 상기 하이퍼스펙트럴 영상에서 입력받은 범위의 밝기값에 해당하는 영역만을 유효값으로 산출하는 수영역 연산단계(802b); 및 상기 수영역 연산단계에서 산출된 수영역을 순수한 수영역으로 추출하는 수영역 추출단계(802c)를 포함한다. 또한 식생영역 처리를 통하여 하이퍼스펙트럴 영상으로부터 식생영역을 생성하는 단계는 하이퍼스펙트럴 영상으로부터 식생영역에 해당하는 밝기값을 샘플링한 다음, 샘플링된 밝기값을 입력하는 단계(803a); 상기 하이퍼스펙트럴 영상에서 입력받은 범위의 밝기값에 해당하는 영역만을 유효값으로 산출하는 식생영역 연산단계(803b); 및 상기 식생영역 연산단계에서 산출된 식생영역을 순수한 식생영역으로 추출하는 식생영역 추출단계(803c)를 포함한다.The number region processing 802 and the vegetation region processing 803 are performed in the hyperspectral image 801 to generate a water region and a vegetation region 804. More specifically, the brightness value corresponding to the number range is sampled from the hyperspectral image, and then the sampled brightness value is input (802a). A number region operation step (802b) of calculating, as a valid value, only an area corresponding to a brightness value of a range inputted in the hyperspectral image; And a number region extraction step 802c for extracting the number region calculated in the number region calculation step into a pure number region. In addition, the step of generating a vegetation region from the hyperspectral image through the vegetation region processing includes a step 803a of sampling the brightness value corresponding to the vegetation region from the hyperspectral image and then inputting the sampled brightness value; A vegetation area calculation step (803b) of calculating, as an effective value, only an area corresponding to a brightness value of a range inputted in the hyperspectral image; And a vegetation area extracting step 803c for extracting the vegetation area calculated in the vegetation area computing step into a pure vegetation area.

참고로, 수영역은 바다, 하천, 호수 등의 종류에 따른 탁도, 계절적 변수를 가지므로, 샘플링을 통하여 밝기값을 확인하는 과정이 중요하다. 상기 밝기값은 사용자가 입력할 수도 있지만, 상기 범위 값을 자동으로 인식하여 유효값으로 산출하도록 설정해 놓을 수도 있다.
For reference, the water area has turbidity and seasonal variables depending on the types of sea, river, and lake, so it is important to check the brightness value through sampling. The brightness value may be input by the user, but the brightness value may be automatically recognized and calculated to be a valid value.

도 9는 본 발명의 실시예에 따른 하이퍼스펙트럴 영상의 DSM 및 분광정보를 이용한 국토 모니터링 방법에서, 수영역 및 식생영역 제외 탐지 단계를 수행하기 전후의 결과를 비교한 결과로서, (A)도면은 수영역 및 식생영역 제외 탐지 단계를 적용하기 전의 결과이고, (B)도면은 수영역 및 식생영역 제외 탐지 단계 적용한 후의 결과이다. B의 경우 국토 모니터링에 있어서, 관심도가 낮은 불필요한 수영역의 변화와 산림의 높이에 따른 변화 영역을 제외시켜서, 보다 정확하게 국토 모니터링을 수행할 수 있음을 알 수 있다.
9 is a graph showing the results of comparing the results before and after the detection of the water area and the vegetation area except for the water area and the vegetation area excluding step in the monitoring method using the DSM and the spectroscopic information of the hyperspectral image according to the embodiment of the present invention, (B) is the result after applying the detection step of the water area and the vegetation area exclusion step. In case of B, it can be seen that the national land monitoring can be carried out more precisely by excluding unnecessary number of areas with low interest and change areas due to the height of forest.

본 발명에 따른 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법은 실질적으로 GIS 공간분석용 소프트웨어가 탑재된 컴퓨터를 통하여 구현될 수 있다.
The method of monitoring the land and city using the hyperspectral image according to the present invention can be practically implemented through a computer equipped with software for GIS spatial analysis.

이상으로 본 발명 내용의 특정한 부분을 상세히 기술하였는 바, 당업계의 통상의 지식을 가진 자에게 있어서, 이러한 구체적 기술은 단지 바람직한 실시양태일 뿐이며, 이에 의해 본 발명의 범위가 제한되는 것이 아닌 점은 명백할 것이다. 따라서, 본 발명의 실질적인 범위는 첨부된 청구항들과 그것들의 등가물에 의하여 정의된다고 할 것이다.While the present invention has been particularly shown and described with reference to specific embodiments thereof, those skilled in the art will appreciate that such specific embodiments are merely preferred embodiments and that the scope of the present invention is not limited thereby. something to do. Accordingly, the actual scope of the present invention will be defined by the appended claims and their equivalents.

Claims (2)

동일 지역이 촬영된 2장 이상의 하이퍼스펙트럴 영상과, 상기 하이퍼스펙트럴 영상의 외부표정요소와, 상기 하이퍼스펙트럴 영상을 촬영한 초분광 카메라의 촬영정보를 탐지시스템이 수신하는 영상데이터 입력단계(S10);
상기 탐지시스템이 상기 하이퍼스펙트럴 영상의 상호표정을 수행하는 상호표정 단계(S20);
상기 탐지시스템이 상기 상호표정을 통해 확인한 상기 하이퍼스펙트럴 영상들의 공선 조건과 공면 조건으로부터 연산해 확인한 형상경계점과 공액점을 기반으로 수치표면자료(DSM)를 생성하는 DSM 생성단계(S30);
상기 탐지시스템이 서로 다른 시기의 동일 지역에 대한 수치표면자료(DSM)를 이미지 중첩해서, 이미지의 픽셀에 적용된 밝기값을 기준으로 지형별 높이 차를 연산해서 상기 높이 차가 확인된 지역을 변화지역으로 추출하는 DSM 중첩단계(S40); 및
상기 탐지시스템이 수영역과 식생영역에 대한 분광정보를 기준으로 상기 하이퍼스펙트럴 영상에서 수영역과 식생영역을 추출하고, 상기 수영역과 식생영역을 상기 변화지역에서 제외하는 변화구역 탐지단계(S50);
를 포함하는 것을 특징으로 하는 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법.
An image data input step in which the detection system receives the photographing information of the hyperspectral camera in which at least two hyperspectral images of the same region are photographed, an external facial expression element of the hyperspectral image, S10);
(S20) the detection system performs mutual expression of the hyperspectral image;
A DSM generation step (S30) of generating a numerical surface data (DSM) based on a shape boundary point and a conjugate point computed from collinearity and coplanar conditions of the hyperspectral images identified by the detection system through the mutual expression;
The detection system superimposes the image of the numerical surface data (DSM) of the same area at different times, calculates the height difference by the terrain based on the brightness value applied to the pixels of the image, DSM superimposing step (S40) for extracting; And
The detection system extracts a water region and a vegetation region from the hyperspectral image based on spectroscopic information on the water region and the vegetation region, and detects the change region and the vegetation region from the change region (S50 );
Wherein the method comprises the steps of:
제 1 항에 있어서, 상기 변화구역 탐지단계(S50)는
상기 수영역과 식생영역의 밝기값은 샘플링한 밝기값이고, 상기 탐지시스템은 상기 하이퍼스펙트럴 영상에서 상기 샘플링한 밝기값을 기준으로 상기 수영역과 식생영역을 추출하는 것을 특징으로 하는 하이퍼스펙트럴 영상을 이용한 국토 및 도시 모니터링 방법.
2. The method of claim 1, wherein the changing zone detection step (S50)
Wherein the brightness values of the water region and the vegetation region are sampled brightness values and the detection system extracts the water region and the vegetation region based on the sampled brightness values in the hyperspectral image. (Method of monitoring land and city using video).
KR20140164333A 2014-11-24 2014-11-24 Land and City Monitoring Method Using Hyper Spectral Images KR101510203B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140164333A KR101510203B1 (en) 2014-11-24 2014-11-24 Land and City Monitoring Method Using Hyper Spectral Images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140164333A KR101510203B1 (en) 2014-11-24 2014-11-24 Land and City Monitoring Method Using Hyper Spectral Images

Publications (1)

Publication Number Publication Date
KR101510203B1 true KR101510203B1 (en) 2015-04-09

Family

ID=53033912

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140164333A KR101510203B1 (en) 2014-11-24 2014-11-24 Land and City Monitoring Method Using Hyper Spectral Images

Country Status (1)

Country Link
KR (1) KR101510203B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101780058B1 (en) 2016-05-31 2017-09-20 (주)아세아항측 Method of developing libraries for heavy metals in soil samples using hyperspectral sensor
CN112508328A (en) * 2020-10-20 2021-03-16 中国环境科学研究院 Natural conservation place ecological quality monitoring system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100795396B1 (en) 2007-06-15 2008-01-17 (주)한양 Method for monitoring altered city using airborne laser surveying data and digital orthophoto

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100795396B1 (en) 2007-06-15 2008-01-17 (주)한양 Method for monitoring altered city using airborne laser surveying data and digital orthophoto

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101780058B1 (en) 2016-05-31 2017-09-20 (주)아세아항측 Method of developing libraries for heavy metals in soil samples using hyperspectral sensor
CN112508328A (en) * 2020-10-20 2021-03-16 中国环境科学研究院 Natural conservation place ecological quality monitoring system and method
CN112508328B (en) * 2020-10-20 2024-06-04 中国环境科学研究院 Ecological quality monitoring system and method for natural protected land

Similar Documents

Publication Publication Date Title
KR101510206B1 (en) Urban Change Detection Method Using the Aerial Hyper Spectral images for Digital Map modify Drawing
Erenoglu et al. An UAS-assisted multi-sensor approach for 3D modeling and reconstruction of cultural heritage site
Xiao et al. Individual tree crown modeling and change detection from airborne lidar data
Capaldo et al. DSM generation from high resolution imagery: applications with WorldView-1 and Geoeye-1.
Wu et al. Centimeter-resolution topographic modeling and fine-scale analysis of craters and rocks at the Chang'E-4 landing site
JP2003344048A (en) System for processing forest information
Bandyopadhyay et al. Classification and extraction of trees and buildings from urban scenes using discrete return LiDAR and aerial color imagery
Parmehr et al. Mapping urban tree canopy cover using fused airborne lidar and satellite imagery data
KR101510203B1 (en) Land and City Monitoring Method Using Hyper Spectral Images
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
Yilmaz et al. Determination of tree crown diameters with segmentation of a UAS-Based canopy height model
Koc-San et al. A model-based approach for automatic building database updating from high-resolution space imagery
Jang et al. Topographic information extraction from KOMPSAT satellite stereo data using SGM
CN107808160B (en) Three-dimensional building extraction method and device
Schenk et al. Quality control issues of airborne laser ranging data and accuracy study in an urban area
Tang et al. Accuracy test of point-based and object-based urban building feature classification and extraction applying airborne LiDAR data
Kumar et al. Object oriented classification and feature extraction for parts of east delhi using hybrid approach
Koç San Approaches for automatic urban building extraction and updating from high resolution satellite imagery
Trinder et al. Airborne lidar as a tool for disaster monitoring and management
CN116704138B (en) Method and device for establishing oblique photography three-dimensional model
Pamungkas et al. 3D-building reconstruction approach using semi-global matching classified
La Rocca A photogrammetry application to rockfall monitoring: The Belca, Slovenia case study
Tian et al. Region based forest change detection from Cartosat-1 stereo imagery
Dong et al. Low Cost Automatic Reconstruction of Tree Structure by AdQSM with Terres-trial Close-Range Photogrammetry. Forests 2021, 12, 1020
US20240096090A1 (en) Damage Detection and Image Alignment Based on Polygonal Representation of Objects

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 5