KR20210105487A - Method for estimation of river bed change rate using hyperspectral image - Google Patents

Method for estimation of river bed change rate using hyperspectral image Download PDF

Info

Publication number
KR20210105487A
KR20210105487A KR1020200019871A KR20200019871A KR20210105487A KR 20210105487 A KR20210105487 A KR 20210105487A KR 1020200019871 A KR1020200019871 A KR 1020200019871A KR 20200019871 A KR20200019871 A KR 20200019871A KR 20210105487 A KR20210105487 A KR 20210105487A
Authority
KR
South Korea
Prior art keywords
hyperspectral
image
module
information
coordinates
Prior art date
Application number
KR1020200019871A
Other languages
Korean (ko)
Other versions
KR102313438B1 (en
Inventor
김동수
유호준
Original Assignee
단국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 산학협력단 filed Critical 단국대학교 산학협력단
Priority to KR1020200019871A priority Critical patent/KR102313438B1/en
Publication of KR20210105487A publication Critical patent/KR20210105487A/en
Application granted granted Critical
Publication of KR102313438B1 publication Critical patent/KR102313438B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/008Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/002Measuring the movement of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Abstract

The present invention relates to a method for estimating water depth using a hyperspectral image, and specifically to a method that can estimate the depth of water with high accuracy only with hyperspectral images by setting a regression equation using a band ratio after acquiring a hyperspectral image using an unmanned aerial vehicle, and can measure the rate of river bed fluctuation using a river bed elevation calculated with the estimated water depth. The present invention includes a step of acquiring hyperspectral information for each preset image unit.

Description

초분광영상을 이용한 하상 변동속도 측정 방법{Method for estimation of river bed change rate using hyperspectral image}Method for estimation of river bed change rate using hyperspectral image

본 발명은 초분광영상을 이용하여 하상 변동속도를 측정하는 방법에 관한 것으로, 구체적으로 무인비행체를 이용하여 초분광영상을 획득한 후, 밴드비를 활용하여 회귀식을 설정함으로써, 초분광영상만으로 높은 정확도로 수심을 추정하고, 하상 표고의 2차원 공간적 분포를 계측하고, 이를 기반으로 한 하상 변동속도를 측정할 수 있는 방법에 관한 것이다. The present invention relates to a method of measuring the rate of change of bed phase using a hyperspectral image. Specifically, after acquiring a hyperspectral image using an unmanned aerial vehicle, a regression equation is set using a band ratio, so that only a hyperspectral image is used. It relates to a method for estimating water depth with high accuracy, measuring the two-dimensional spatial distribution of river bed elevation, and measuring the river bed fluctuation rate based on this.

물 밖의 정보는 다양한 이미지 장비를 이용하여 3차원 모델링이 비교적 손쉽게 가능하지만, 물 안의 정보, 특히 넓은 범위의 수체 내 수심을 반영한 3차원 모델링은 매우 어려운 작업이다. Although 3D modeling of information outside the water is relatively easy using various image equipment, 3D modeling that reflects information in water, especially the depth of water in a wide range of water bodies, is a very difficult task.

수심을 측정하는 가장 일반적인 방법은 초음파(ultrasound)를 활용하는 것이다. 하지만, 이 방법은 장애물로 인한 반사 등의 다양한 외부 요인으로 정밀도가 낮고 저수심에서는 불가능하다. 저수심에서는 사람이 직접 잠수하거나 줄자를 이용한 실측 방법이 주로 사용된다. 이 경우에도, 넓은 범위를 빠짐없이 측정하는 것은 현실적으로 불가능하다. The most common method of measuring water depth is to use ultrasound. However, this method has low precision due to various external factors, such as reflections from obstacles, and is impossible at low water depth. In the low water depth, a person dives directly or a measurement method using a tape measure is mainly used. Even in this case, it is practically impossible to measure a wide range without omission.

이에 대한 대안으로, 수심을 측정하기 위해, 수체에 대한 초분광영상을 확보하여 이를 이용하는 방법이 거론되고 있다. 초분광 센서(hyperspectral sensor)를 사용할 경우, 가시광영역은 물론 자외선영역, 적외선영역을 포함하여, 일반적인 이미지 센서에서 촬영하는 것에 대비하여 수백배에 이르는 많은 정보를 확보할 수 있기 때문이다.As an alternative to this, in order to measure the depth of the water, a method of obtaining a hyperspectral image of the water body and using the obtained hyperspectral image is being discussed. This is because, when a hyperspectral sensor is used, it is possible to secure hundreds of times more information than that of a general image sensor, including not only the visible region but also the ultraviolet region and the infrared region.

초분광정보를 이용하여 수심을 확인하기 위해, 실재의 파장별 밴드가 무엇을 의미하는지를 매칭시킨 데이터베이스가 필요하다. 예를 들어, 2010년에 발사된 천리안 해양관측 위성(Goestationary Ocean Color Imager, GOGI)에 의해여, 8개 밴드(412, 490, 512, 555, 660, 680, 765, 875nm)의 값을 알 경우, 각각의 값이 어떠한 해색(海色)을 의미하는지 여부에 대한 데이터베이스는 이미 확보되어 있는 상태이다. 따라서, 해양의 초분광영상을 촬영함으로써 지점별 초분광정보가 확인되면, 데이터베이스로부터 해당 파장에서의 값과 이에 매칭된 해색을 확인함으로써, 초분광영상만으로도 직접 관측 없이 해색을 추정하게 된다. 동일한 방법이 수심에 적용될 수 있는 것이다. In order to check the depth of the water using hyperspectral information, a database matching what the actual bands for each wavelength means is needed. For example, if the values of 8 bands (412, 490, 512, 555, 660, 680, 765, 875 nm) are known by the Goestationary Ocean Color Imager (GOGI) launched in 2010 , a database on whether each value means what kind of sea color is already secured. Therefore, when hyperspectral information for each point is confirmed by taking a hyperspectral image of the ocean, the sea color is estimated without direct observation using only the hyperspectral image by checking the value at the corresponding wavelength and the sea color matching it from the database. The same method can be applied to water depth.

또한, 모든 지점에서의 파장별 관측값을 확인하고 데이터베이스화할 수 없기에, 회귀식이 사용된다. 즉, 다수의 데이터를 이용하여 회귀식을 구축하여 두면, 데이터베이스화되어 있지 않은 위치에서도, 회귀식을 이용하여, 초분광영상에서 확인되는 파장별 밴드를 이용하여 실재의 값을 추정할 수 있다. In addition, since it is not possible to verify and database the observation values for each wavelength at all points, a regression equation is used. That is, if a regression equation is constructed using a large number of data, the actual value can be estimated using the band for each wavelength identified in the hyperspectral image by using the regression equation even at a location that is not in a database.

이러한 방법들을 조합하면, 이론적으로 초분광영상만으로 수심의 추정이 가능하다. 초분광영상으로부터 특정 파장에 대한 값을 추출하면, 해당 값과 수심이 미리 매칭되어 저장된 데이터베이스을 이용하거나 회귀식에 대입함으로써, 수심을 추정할 수 있다. By combining these methods, it is theoretically possible to estimate the depth of water only with hyperspectral images. When a value for a specific wavelength is extracted from the hyperspectral image, the water depth can be estimated by using a database stored in which the corresponding value and the water depth are matched in advance or by substituting it into a regression equation.

하지만, 이러한 방식으로 특정 파장의 촬영값을 이용하여 수심을 추정하는 방식은 일정 수준의 오차가 있는 것으로 알려져 있다. 이러한 오차의 원인으로서, 초분광정보 촬영 단계에서 발생하는 오차(예를 들어, 반사광의 영향으로 촬영값이 실재 위치의 값을 대변하지 못하는 상황), 영상 수정 단계에서 발생하는 오차(예를 들어, 기하 보정의 오류, 영상 정합의 오류 등), 데이터베이스의 오류(예를 들어, 촬영값은 정확하였지만 식별 정보가 잘못된 경우), 기타 외부요인 등이 제시된다. However, it is known that there is a certain level of error in the method of estimating the depth of water using the photographing value of a specific wavelength in this way. As the causes of such errors, errors occurring in the hyperspectral information capturing step (for example, a situation in which the captured value does not represent the actual location value due to the influence of reflected light), and errors occurring in the image correction step (e.g., Errors in geometric correction, errors in image registration, etc.), errors in the database (eg, when the photographing value is correct but identification information is incorrect), and other external factors are suggested.

더욱이, 정확도가 낮은 값을 이용하여 구축한 회귀식을 통해 수심을 추정할 경우, 이러한 오차는 점차 커지게 된다.Moreover, when estimating the water depth through a regression equation constructed using a low-accuracy value, this error gradually increases.

또한, 넓은 영역의 초분광영상 확보에도 어려움이 있다.In addition, it is difficult to secure a hyperspectral image of a wide area.

넓은 영역의 초분광영상 확보를 위하여 유인비행체, 인공위성 등에서 촬영을 하는 것이 일반적인데, 이 경우 셀 사이즈가 10m 내지 50m 등으로 과다하게 커져서 정밀한 계측이 불가능하다. 예를 들어, 수심을 측정할 경우 지표에서 100m2 단위로 측정되기에 정밀도가 감소하는 것이다. In order to secure a wide area of hyperspectral images, it is common to take pictures from a manned vehicle or an artificial satellite. For example, when measuring water depth, precision is reduced because it is measured in units of 100 m 2 on the surface.

이를 해소하기 위하여 근거리에서 비행할 수 있는 드론과 같은 무인비행체에 초분광 센서를 탑재하는 시도가 있었다. 이 경우, 셀 사이즈가 작아져서 정밀도는 상승하나, 무인비행체가 갖고 있는 비행 중 흔들림 등의 문제로 정확도가 낮아지는 다른 문제가 발생하였다. 이를 방지하고자, 흔들림을 보정할 수 있는 고성능 짐벌의 탑재를 고려할 수 있지만, 고성능 짐벌의 무게가 상당히 크기에 드론의 비행 성능을 약화시켰다. In order to solve this problem, attempts have been made to mount a hyperspectral sensor on an unmanned aerial vehicle such as a drone that can fly at a short distance. In this case, although the cell size is reduced and the accuracy is increased, another problem occurred in that the accuracy was lowered due to problems such as shaking during flight of the unmanned aerial vehicle. To prevent this, it is possible to consider mounting a high-performance gimbal that can compensate for shake, but the weight of the high-performance gimbal is quite large, which weakens the flight performance of the drone.

더욱이, 초분광 센서는 기본적으로 라인 스캐닝(line scanning)을 하여 초분광정보를 확보하기에, 다수의 초분광정보를 정합하는 소프트웨어가 필수적이다. 하지만, 기존의 초분광정보 정합 소프트웨어는 그 정확도가 부족하여, 다수의 초분광정보를 정합한 영상이 실재 촬영 지점에서 다소 벗어난 지점의 정보를 제공하기도 한다. Moreover, since the hyperspectral sensor basically performs line scanning to secure hyperspectral information, software for matching a plurality of hyperspectral information is essential. However, the existing hyperspectral information matching software lacks accuracy, and thus, an image obtained by matching a plurality of hyperspectral information may provide information on a point slightly deviated from the actual shooting point.

이에, 오차를 줄여서 정확도를 높일 수 있는 새로운 방식의 수심 식별 방법에 대한 요구가 증가하는 추세이나, 이러한 수심 아래의 속도 변화에 대하여는 알 수 없었다.Accordingly, the demand for a new type of depth identification method capable of increasing accuracy by reducing errors is on the rise, but the change in speed below the depth of the water has not been known.

관련된 특허 문헌을 검토한다. Review the relevant patent literature.

한국등록특허 제10-1621354호는 초분광영상을 이용한 수심 측정 방법을 개시한다. 전술한 문제점들이 모두 포함되어 있어, 정확도가 낮다. Korean Patent No. 10-1621354 discloses a method for measuring depth using hyperspectral images. All of the above problems are included, so the accuracy is low.

한국등록특허 제10-1463351호는 초분광영상에서 밴드비를 활용하여 특이영역을 검출하고, 초분광영상에서 검출된 영역을 제외함으로써 정보 연산의 속도를 상승시키는 기술을 개시한다. 후술하는 본 발명과 밴드비를 사용한다는 점만 공통될 뿐, 전체적인 발명의 목적, 구성 및 효과가 상이하다. Korean Patent Registration No. 10-1463351 discloses a technique for increasing the speed of information calculation by detecting a singular region using a band ratio in a hyperspectral image and excluding the detected region in a hyperspectral image. Only the point of using the band ratio and the present invention to be described below is common, but the overall purpose, configuration, and effect of the invention are different.

한국등록특허 제10-1619836호는 초분광영상 촬영을 위한 카메라를 짐벌과 완충장치를 이용한 드론을 개시한다. 드론의 흔들림을 보상한 영상이 확보된다는 점에서 장점이나, 라인 스캐닝에 의한 영상 정합 기술을 개시하지 못한다.Korean Patent No. 10-1619836 discloses a drone using a gimbal and a shock absorber as a camera for hyperspectral imaging. It has an advantage in that an image that compensates for the shake of the drone is secured, but cannot start an image matching technology by line scanning.

한국등록특허 제10-1806488호는 초분광영상 센서를 드론에 탑재하여 암체를 식별하는 기술을 개시한다. 한국등록특허 제10-1744662호는 초분광영상을 이용하여 식물을 분류하는 기술을 개시한다. 이를 위해, 다양한 암체 내지 식물에 대한 초분광영상 표준자료가 미리 확보되어 있어야 하며, 촬영된 영상을 이와 비교함으로써, 피촬영 오브젝트를 식별한다. 하지만, 드론의 흔들림으로 인한 정확도 저하 문제, 영상 정합의 효율성을 상승시키는 문제 등 촬영 단계에서 확인되는 원천적인 문제를 해결하지 못한다. Korean Patent Registration No. 10-1806488 discloses a technology for identifying a dark body by mounting a hyperspectral image sensor on a drone. Korean Patent No. 10-1744662 discloses a technology for classifying plants using hyperspectral images. To this end, hyperspectral image standard data for various dark bodies or plants must be secured in advance, and the photographed object is identified by comparing the photographed image thereto. However, it does not solve the fundamental problems identified during the shooting stage, such as a problem of decreasing accuracy due to the shaking of the drone, and a problem of increasing the efficiency of image matching.

한국등록특허 제10-1689197호는 드론에 부착될 수 있는 짐벌 어셈블리를 개시한다. 여기에 개시된 어셈블리는 회전/역회전이 가능한 제1유닛과, 승강이 가능한 제2유닛과, 이들을 회동시키는 제3유닛으로 구성되어, 비행체의 흔들림을 보상한다. 하지만, 이와 같이 구성될 경우, 짐벌의 무게가 과다하게 증가하여, 드론의 비행 성능이 낮아진다는 문제가 발생할 것이다.Korean Patent No. 10-1689197 discloses a gimbal assembly that can be attached to a drone. The assembly disclosed herein is composed of a first unit capable of rotation/reverse rotation, a second unit capable of lifting and lowering, and a third unit rotating them, thereby compensating for the shaking of the aircraft. However, when configured in this way, the weight of the gimbal is excessively increased, which will cause a problem that the flight performance of the drone is lowered.

한국공개특허 제10-2014-0014819호는 초분광영상에서 확인된 데이터에 대하여 색인/질의 기법을 적용함으로써, 마치 인공지능 알고리즘과 같은 형태로, 데이터를 식별하는 방법을 개시한다. 이러한 방법 활용의 전제조건은 초분광영상의 정확도인데, 무인비행체와 같은 환경에서 촬영된 영상의 정확도를 상승시키는 방법까지 제시하지 못한다. Korean Patent Application Laid-Open No. 10-2014-0014819 discloses a method of identifying data in the form of an artificial intelligence algorithm by applying an indexing/querying technique to data identified in a hyperspectral image. The prerequisite for using this method is the accuracy of hyperspectral images, but it cannot even suggest a method to increase the accuracy of images captured in an environment such as an unmanned aerial vehicle.

미국특허 제7,181,055호는 초분광영상을 정합하는 알고리즘을 제시한다. 여기에서는, 반사도 이미지를 활용하여 정합 정확도를 상승시킨다. US Patent No. 7,181,055 proposes an algorithm for registering hyperspectral images. Here, a reflectance image is used to increase the registration accuracy.

한국등록특허 제10-1463351호Korean Patent Registration No. 10-1463351 한국등록특허 제10-1619836호Korean Patent Registration No. 10-1619836 한국등록특허 제10-1806488호Korean Patent No. 10-1806488 한국등록특허 제10-1744662호Korean Patent No. 10-1744662 한국등록특허 제10-1689197호Korean Patent Registration No. 10-1689197 한국공개특허 제10-2014-0014819호Korean Patent Publication No. 10-2014-0014819 미국특허 제7,181,055호US Patent No. 7,181,055 한국등록특허 제10-1963604호Korean Patent Registration No. 10-1963604 한국등록특허 제10-1621354호Korean Patent No. 10-1621354 한국등록특허 제10-1936586호Korean Patent Registration No. 10-1936586

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다. 특히, 초분광영상을 이용하여 수심을 추정하고자 하는 경우, 발생할 수 있는 다양한 문제점을 해결하고자 한다.The present invention has been devised to solve the above problems. In particular, in the case of estimating water depth using hyperspectral images, various problems that may occur are to be solved.

구체적으로, 라인 스캐닝되는 초분광 센서의 특성에 기인하여 영상 정합의 정확도가 낮아지는 문제를 해결하고, 무인비행체에서 촬영됨으로 인한 영상의 흔들림 문제를 해결하고자 한다. Specifically, it is intended to solve the problem that the accuracy of image registration is lowered due to the characteristics of the line-scanning hyperspectral sensor, and to solve the problem of shaking of the image due to shooting from an unmanned aerial vehicle.

또한, 정확한 초분광정보를 획득하여 특정 파장이 갖고 있는 촬영값이 정확함에도, 해당 촬영값에 대한 데이터베이스가 정확한 식별 정보를 반영하지 못하는 상황을 방지하기 위한, 신규한 초분광정보 식별 방법을 제안하고자 한다.In addition, to propose a novel hyperspectral information identification method to obtain accurate hyperspectral information and prevent a situation in which the database for the corresponding photographing value does not reflect accurate identification information even when the photographing value of a specific wavelength is accurate. do.

특히, 추정된 수심을 이용해 하상표고를 산출하고, 산출된 하상표고를 이용해 하상 변동속도를 측정할 수 있는 방법을 제안하고자 한다.In particular, we intend to propose a method for calculating the riverbed elevation using the estimated water depth and measuring the rate of change of the riverbed using the calculated riverbed elevation.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는(a) 무인비행체(100)가, 설정된 비행경로를 따라 비행하면서, 초분광 센서(140)를 이용하여, 라인 스캐닝(line scanning)을 통해, 기 설정된 영상 단위마다 초분광정보를 획득하는 단계; (b) 기하보정 수행모듈(250)이, 상기 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정을 수행하는 단계; (c) 영상정합 수행모듈(260)이, 상기 기하보정이 수행된, 상기 각각의 영상 단위마다 획득된 초분광정보를 정합하여, 상기 수집영역의 초분광영상을 획득하는 단계; (d) 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력되는 단계; (e) 밴드비 연산모듈(320)이, 상기 미리 결정된 다수의 지점 각각에서, 상기 (c) 단계에서 획득된 초분광영상으로부터 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))을 확인하고, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하여, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인하는 단계; (f) 상기 밴드비 연산모듈(320)이, 상기 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(band ratio)(X)를 연산하는 단계; 및 (g) 회귀분석모듈(330)이, 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 상기 다수의 지점에서의 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)를 이용하여, 회귀식(Y=aX+b)의 a와 b를 연산함으로써, 회귀식(Y=aX+b)을 생성하는 단계를 포함하며, (h) 관측값 추정모듈(350)이 상기 (g) 단계에서 생성된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 단계; 및 (m) 하상 변동속도 연산 모듈(380)이 상기 (h) 단계에서 추정된 수심을 이용하여 미리 설정된 방법에 따라 하상 변동속도를 연산하는 단계;를 포함하고, 상기 (m)단계는, (m1) 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; (m2) 지형 결정 모듈(360)이, 상기 연산된 정규식생지수(NDWI)가 0 이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정하는 단계; (m3) 표고 산정 모듈(370)이, 상기 지형 결정 모듈(360)에서 결정된 지형 중 상기 수체 구역의 외각선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 위치에 상응하는 표고를 활용하여 수면의 표고로 산정하는 단계; (m4) 상기 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)를 산정하는 단계; (m5) 상기 하상 변동속도 연산 모듈(380)이 시간 변화량 δt 동안 상기 (m4) 단계에서 산정된 하상표고의 변동이 0인 것으로 가정하여, 아래의 수식을 통해 하상 변동속도를 연산하는 단계;를 포함하는

Figure pat00001
,
Figure pat00002
하상 변동속도 측정 방법을 제공한다.One embodiment of the present invention for solving the above problems is (a) the unmanned aerial vehicle 100, while flying along a set flight path, using the hyperspectral sensor 140, line scanning (line scanning) through, acquiring hyperspectral information for each preset image unit; (b) performing, by the geometric correction performing module 250, geometric correction on the hyperspectral information obtained for each image unit by using the position information of each pixel; (c) acquiring, by the image matching performing module 260, the hyperspectral image of the collection area by matching the hyperspectral information obtained for each image unit on which the geometric correction is performed; (d) inputting a depth observation value (Y) of each of a plurality of predetermined points to the hyperspectral observation value input module 310; (e) the band ratio calculation module 320, at each of the plurality of predetermined points, from the hyperspectral image obtained in step (c), a hyperspectral imaging value (I) that is a pixel value for a plurality of wavelengths (x) (x)), select a pair (λ 1 , λ 2 ) of any two wavelengths among a plurality of wavelengths (x) included in the hyperspectral imaging value, and select the hyperspectral imaging value (I( determining λ 1 ), I(λ 2 )); (f) the band ratio calculation module 320 divides any one of the two identified hyperspectral imaging values (I(λ 1 ), I(λ 2 )) by the other to obtain a band ratio (X) ) to calculate; and (g) assuming that the regression analysis module 330 has a linear relationship between the observed depth value (Y) and the calculated band ratio (X), the depth observation value (Y) at the plurality of points and generating a regression equation (Y = aX + b) by calculating a and b of a regression equation (Y = aX + b) using the calculated band ratio (X), (h) estimating, by the observation value estimation module 350, the depth of the water from the hyperspectral image using the regression equation generated in step (g); and (m) calculating, by the river bed fluctuation rate calculation module 380, the river bed fluctuation rate according to a preset method using the water depth estimated in the step (h). m1) calculating, by the observation value estimation module 350, a normal vegetation index (NDWI) using the intensity of light with respect to a wavelength corresponding to near infrared in the hyperspectral image; (m2) determining, by the terrain determination module 360, a waterbody zone when the calculated regular vegetation index (NDWI) is greater than or equal to 0, and determined as a river sub-region when it is less than 0 to determine each terrain; (m3) The elevation calculation module 370 calculates the elevation corresponding to the location by using the location information of each pixel of a plurality of points constituting the outer line of the water body area among the topography determined by the topography determination module 360 estimating as the elevation of the water surface by utilizing; (m4) calculating, by the elevation calculation module 370, the river elevation E(x,y,t) by subtracting the estimated water depth from the calculated elevation of the water surface; (m5) assuming that the change in the river bed elevation calculated in step (m4) is 0 during the time change amount δt by the river bed fluctuation rate calculation module 380, calculating the river bed fluctuation rate through the following formula; containing
Figure pat00001
,
Figure pat00002
A method for measuring the rate of change of the river bed is provided.

또한, 상기 (m5) 단계는, 아래의 수식을 통해 하상 변동속도를 연산하는 단계를 포함하는,

Figure pat00003
여기서,
Figure pat00004
이며, qn은 수체 구역 내 임의의 지점인 것이 바람직하다.In addition, the step (m5) comprises the step of calculating the rate of change of the lower phase through the following equation,
Figure pat00003
here,
Figure pat00004
, and q n is preferably any point in the waterbody zone.

또한, 상기 (m3) 단계 이후, 상기 (m4) 단계 이전, 상기 표고 산정 모듈(370)이, 데이터베이스부(400)에서 상기(m2) 단계에서 결정된 하천 제내지 구역에 상응하는 구역의 표고 정보를 수집하는 단계;를 더 포함하며, 상기 (m5) 단계는, 상기 하천 제내지 구역에 대한 하상 변동속도를 연산하는 단계를 더 포함하는 것이 바람직하다.In addition, after the (m3) step, before the (m4) step, the elevation calculation module 370, the database unit 400, the elevation information of the area corresponding to the river area determined in the step (m2) Collecting; further comprising, the step (m5), it is preferable to further include the step of calculating the rate of change of the river bed for the river sub-region.

또한, 상기 (g) 단계 이후, (h) 상기 회귀분석모듈(330)이, 상기 초분광 촬영값에 포함된 상기 다수의 파장 중 상기 (e) 단계에서의 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, 상기 (f) 내지 (g) 단계를 반복함으로써, 다수의 2개의 파장의 쌍마다 각각 회귀식을 생성하는 단계; (i) 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식 중 상관계수(correlation)가 가장 높은 회귀식을 선택하는 단계; (j) 상기 회귀식 결정모듈(340)이, 상기 (g) 단계에서 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정하는 단계를 더 포함하며, 상기 선택된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 것이 바람직하다.In addition, after step (g), (h) the regression analysis module 330 selects any other than the pair of the two wavelengths in step (e) among the plurality of wavelengths included in the hyperspectral imaging value. generating a regression equation for each of a plurality of pairs of two wavelengths by selecting a wavelength of , checking a hyperspectral imaging value thereof, and repeating steps (f) to (g); (i) selecting, by the regression equation determination module 340, a regression equation having the highest correlation coefficient among the generated plurality of regression equations; (j) determining, by the regression equation determination module 340, the two wavelengths applied to the band ratio (X) used in the regression equation selected in the step (g) as a pair of optimal band ratio wavelengths; And, it is preferable to estimate the water depth from the hyperspectral image using the selected regression equation.

또한, 상기 (j) 단계 이후, (k) 관측값 추정모듈(350)이, 상기 다수의 지점 이외의 지점의 초분광 촬영값에서, 상기 (j) 단계에서 결정된 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하고, 어느 하나를 다른 하나로 나누어 해당 지점의 밴드비를 연산하는 단계; 및 (l) 상기 관측값 추정모듈(350)이, 상기 (g) 단계에서 선택된 회귀식에 상기 연산된 밴드비를 입력하여 해당 지점의 수심 관측값을 추정하는 단계를 더 포함하는 것이 바람직하다.In addition, after step (j), (k) the observation value estimation module 350 corresponds to the pair of optimal band ratio wavelengths determined in step (j) in hyperspectral imaging values of points other than the plurality of points. checking two hyperspectral imaging values, dividing one into the other, and calculating a band ratio of the corresponding point; and (l) estimating, by the observation value estimation module 350, the observation value of the depth of the corresponding point by inputting the calculated band ratio into the regression equation selected in the step (g).

또한, 상기 (l) 단계는, 상기 관측값 추정모듈(350)이 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; 및 상기 관측값 추정모듈(350)이 상기 연산된 정규식생지수(NDWI)가 0보다 작은 경우 수심을 0으로 출력하는 단계를 더 포함하는 것이 바람직하다.In addition, the step (l) may include: calculating, by the observation value estimation module 350, a normal vegetation index (NDWI) using the intensity of light for a wavelength corresponding to near-infrared in the hyperspectral image; and outputting, by the observation value estimation module 350, the depth of water as 0 when the calculated NDWI is less than 0.

또한, 상기 정규식생지수(NDWI)는 아래의 수식으로 연산되며,

Figure pat00005
여기에서, NIR은 상기 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 상기 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기인 것이 바람직하다.In addition, the regular expression index (NDWI) is calculated by the following formula,
Figure pat00005
Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information, and Green is the intensity of light at a wavelength corresponding to green among the values included in the hyperspectral information. do.

또한, 상기 (i) 단계는, 상기 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식에 대한 상관계수를 연산하여, 2개의 파장의 쌍에서 각각의 파장을 X축 및 Y축으로 하는 상관계수 맵을 생성하는 단계를 포함하고, 상기 (i) 단계는, 상기 회귀식 결정모듈(340)이, 상기 (i) 단계에서 생성된 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하는 단계를 포함하는 것이 바람직하다.In addition, in step (i), the regression equation determination module 340 calculates the correlation coefficients for the generated plurality of regression equations, and converts each wavelength in the pair of two wavelengths to the X-axis and the Y-axis. and generating a correlation coefficient map to Preferably, the method includes determining each wavelength constituting the corresponding point as a pair of the optimal band ratio wavelengths.

또한, 상기 (c) 단계는, (c11) 대응점 확인 모듈(262)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산하되, 상기 어느 하나의 초분광정보(A)의 모든 픽셀 각각에 대하여 상기 다른 하나의 초분광정보(B)의 모든 픽셀 각각의 정규상관계수를 모두 연산함으로써, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하는 단계; (c12) 상기 영상정합 수행모듈(260)이 상기 확인된 대응점을 기준으로 상기 두 개의 초분광정보(A, B)를 영상 정합하는 단계; 및 (c13) 상기 영상정합 수행모듈(260)이 상기 (c11) 내지 (c12) 단계를, 상기 (a) 단계에서 획득된 각각의 영상 단위마다의 초분광정보의 각 쌍마다 수행하여, 영상정합된 상기 수집영역의 초분광영상을 획득하는 단계를 포함하는 것이 바람직하다.In addition, in step (c), (c11) the corresponding point checking module 262, in any two hyperspectral information (A, B) obtained for each image unit on which the geometric correction is performed, any one With respect to the XY coordinates (x, y) of any one pixel of the hyperspectral information A and the pixel value (I(x, y)) at the coordinates, any one of the other hyperspectral information B Calculate the normalized correlation of the XY coordinates (x', y') of the pixel and the pixel value (I(x', y')) at the corresponding coordinates, but any one of the hyperspectral information (A) By calculating all the normal correlation coefficients of each pixel of the other hyperspectral information (B) for each pixel of the two hyperspectral information (A, B) confirming the corresponding point; (c12) image registration of the two hyperspectral information (A, B) based on the identified corresponding point by the image matching performing module 260; and (c13) the image registration performing module 260 performs the steps (c11) to (c12) for each pair of hyperspectral information for each image unit obtained in the step (a), It is preferable to include the step of acquiring a hyperspectral image of the collected area.

또한, 상기 (c11) 단계 이전에, (c21) 적분영상 연산모듈(261)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 초분광정보에서, 각각의 픽셀마다, 어느 하나의 기준 좌표를 기준으로 하여 적분영상(integral image) 화소값을 연산하는 단계를 더 포함하며, 상기 (c11) 단계에서의 화소값은, 상기 (c21) 단계에서 연산된 적분영상 화소값인 것이 바람직하다.In addition, before step (c11), (c21) the integral image operation module 261, in the hyperspectral information obtained for each image unit on which the geometric correction is performed, for each pixel, any one reference coordinate The method may further include calculating an integral image pixel value based on , wherein the pixel value in step (c11) is the pixel value of the integral image calculated in step (c21).

또한, 상기 (c21) 단계 이전에, (c31) 정규화 모듈(240)이, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화하는 단계를 더 포함하는 것이 바람직하다.In addition, before the step (c21), (c31) the normalization module 240 sets the XY coordinates of the pixels of the hyperspectral information of any one image unit as an ordered pair of integers (x, y), and the set XY Calculate the average coordinates of the coordinates, set the calculated average coordinates as the origin (0, 0) so that the unit distance between the ordered pairs (x, y) of each integer becomes √2, the XY coordinates (x, y) It is preferable to further include normalizing the hyperspectral information of any one image unit by moving the to the normalized XY coordinates (x', y').

또한, 상기 (c31) 단계 이후, (c32) 상기 정규화 모듈(240)이 상기 어느 하나의 초분광정보의 정규화 전 XY 좌표(x, y)와 정규화된 이후의 XY 좌표(x', y')의 값을 이용하여, 매개변수를 포함한 행렬식인 호모그래피(homography)(H)를 연산하는 단계; 및 (c33) 상기 연산된 호모그래피(H)를 이용하여, 다른 하나의 초분광정보를 정규화하는 단계를 포함하는 것이 바람직하다.In addition, after step (c31), (c32) the normalization module 240 XY coordinates (x, y) before normalization of any one of the hyperspectral information and XY coordinates after normalization (x', y') calculating a homography (H), which is a determinant including parameters, by using a value of ; and (c33) normalizing the other hyperspectral information using the calculated homography (H).

또한, 상기 (c32) 단계에서 동차좌표계(homogeneous coordinates)가 활용되어 정규화 전 XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭되며, 다음의 수식을 이용하되 다수의 XY 좌표를 활용하여, 호모그래피(H)가 연산되며,

Figure pat00006
상기 (c33) 단계는, 다른 하나의 초분광정보를 행렬식 A에 대입하여, 정규화된 XY 좌표인 행렬식 A'가 연산되는 것이 바람직하다.In addition, in the step (c32), homogeneous coordinates are used, so that the XY coordinates before normalization are (x, y, 1) and are referred to as the determinant A, and the XY coordinates after normalization are (x', y', 1) is referred to as the determinant A', and the homography (H) is calculated using the following formula but using a number of XY coordinates,
Figure pat00006
In the step (c33), it is preferable that the determinant A', which is the normalized XY coordinates, is calculated by substituting another piece of hyperspectral information into the determinant A.

상기와 같은 과제를 해결하기 위한 본 발명의 다른 실시예는, 컴퓨터 판독 가능한 기록 매체에 저장되어, 전술한 방법을 실행시키는 프로그램과, 그 코드가 기록된 컴퓨터 판독 가능한 기록 매체를 제공한다.Another embodiment of the present invention for solving the above problems is stored in a computer-readable recording medium, and provides a program for executing the above-described method, and a computer-readable recording medium in which the code is recorded.

본 발명에 따른 방법은, 작은 영상 단위(라인 단위)로 확보되는 초분광정보를 높은 정확도로 정합함으로써, 정확도 및 정밀도가 모두 높은 우수한 초분광영상을 획득하고, 이를 토대로 높은 정확도 및 정밀도로 수심을 추정할 수 있다. 특히, 높은 중량의 고성능 짐벌을 사용하지 않고서도 무인비행체의 흔들림을 효과적으로 보정할 수 있다. 전술한 영상 정합 기술과 함께 사용되어, 높은 상승 효과로서 우수한 초분광영상을 획득하게 한다. The method according to the present invention obtains an excellent hyperspectral image with both high accuracy and precision by matching hyperspectral information secured in a small image unit (line unit) with high accuracy, and based on this, it acquires a water depth depth with high accuracy and precision. can be estimated In particular, it is possible to effectively correct the shake of the unmanned aerial vehicle without using a high-performance gimbal with a high weight. Used together with the above-described image registration technology, it allows to obtain excellent hyperspectral images with a high synergistic effect.

또한, 종래에는 실재 물체의 파장의 값과 가장 가까운 것으로 식별되는 값을 갖는 오직 1개의 파장만을 사용하기에, 해당 매칭이 부정확하거나 측정값에 오류가 있는 경우 실재 추정된 수심의 정확도가 낮다는 단점이 있었지만, 본 발명에 의하여, 실재 수심의 파장의 값과 가장 가까운 것으로 식별되는 파장의 촬영값이 분자로 사용되고, 실재 수심의 파장의 값과 가장 먼 것으로 식별의 촬영값이 분모로 사용함으로써, 단일 파장에 의한 매칭과 달리 이중의 매칭 과정을 통해 수심의 값을 추정하기에, 정확도를 높일 수 있는 것이다.In addition, since only one wavelength having a value identified as closest to the wavelength value of the real object is used in the prior art, the accuracy of the actual estimated water depth is low when the matching is inaccurate or there is an error in the measurement value However, according to the present invention, the photographed value of the wavelength identified as closest to the value of the wavelength of the actual water depth is used as the numerator, and the photographed value of the wavelength identified as the closest to the value of the wavelength of the actual water depth is used as the denominator. Unlike matching by wavelength, it is possible to increase the accuracy by estimating the value of the water depth through a double matching process.

또한, 추정된 수심의 값을 이용해 하상표고를 산출하고, 산출된 하상표고를 이용해 하상 변동속도를 추정할 수 있는 것이다. In addition, the riverbed elevation can be calculated using the estimated water depth value, and the riverbed change rate can be estimated using the calculated riverbed elevation.

또한, 이러한 방법은, 단 1개의 프로그램으로서 논스톱(non-stop) 개념으로 컴퓨터 프로그램화되어, 다수의 지점의 관측값인 수심과 촬영된 초분광영상이 입력되면, 초분광영상은 적절하게 전처리 및 후처리되고, 이를 기반으로 자동으로 회귀식이 결정되고, 자동으로 수심이 추정될 수 있으며, 이를 이용한 하상 변동속도도 추정될 수 있다.In addition, this method is computer-programmed in a non-stop concept as only one program, and when the water depth and the captured hyperspectral image, which are observation values of multiple points, are input, the hyperspectral image is appropriately pre-processed and It is post-processed, and a regression equation is automatically determined based on this, and the water depth can be estimated automatically, and the river bed fluctuation rate can be estimated using this.

특히, 기존에는 다수의 프로그램을 오고 가며 복잡한 연산 및 데이터 전송을 수행하여야 하였으나, 이러한 문제점들이 모두 해소됨은 물론, 적분영상을 활용하여 수일에 걸리던 연산 시간을 약 50% 이상 감소시킬 수 있다.In particular, in the past, it was necessary to perform complex calculations and data transmission by going back and forth between multiple programs. However, all these problems are solved, and the calculation time that used to take several days can be reduced by about 50% or more by using the integral image.

도 1은 본 발명에 따른 방법을 수행하기 위한 시스템을 도시한다.
도 2는 본 발명에 따른 방법 중 영상 처리 방법을 설명하기 위한 순서도이다.
도 3은 본 발명에 따른 방법 중 영상 분석 방법을 설명하기 위한 순서도이다.
도 4는 본 발명에 따른 하상 변동속도 측정 방법을 설명하기 위한 순서도이다.
도 5는 본 발명에 따른 방법에서 사용되는 무인비행체의 예시를 설명하기 위한 사진이다.
도 6은 본 발명에 따른 방법에서 무인비행체가 초분광정보를 획득하는 방법을 설명하기 위한 개략도이다.
도 7은 본 발명에 따른 방법 중 영상 처리 방법에서 기하보정을 설명하기 위한 개략도이다.
도 8은 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합을 설명하기 위한 개략도이다.
도 9는 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합을 위해 정규상관계수를 사용하는 방법을 설명하기 위한 개략도이다.
도 10은 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합시 적분영상을 활용하는 방법을 설명하기 위한 개략도이다.
도 11은 본 발명에 따른 방법 중 영상 처리 방법에서 정규화 단계를 설명하기 위한 개략도이다.
도 12는 본 발명에 따른 방법 중 영상 분석 방법의 밴드비를 설명하기 위한 도면이다.
도 13은 본 발명에 따른 방법 중 영상 분석 방법에서 밴드비와 관측값인 수심을 이용하여 회귀분석이 수행되는 과정을 설명하기 위한 도면이다.
도 14는 본 발명에 따른 방법 중 영상 분석 방법에 의하여 설정된 상관관계 맵을 도시한다.
도 15는 본 발명에 따른 방법 중 영상 분석 방법에 의하여 상관관계 맵을 이용하여 회귀식을 선택하는 방법을 설명한다.
도 16은 본 발명에 따른 방법이 구현된 프로그램의 화면을 도시한다.
도 17은 본 발명에 따른 방법에서, 수체 판단 단계를 적용하여 수심 추정을 완성한 후 후보정을 통하여 최종 결과물이 출력되는 화면을 도시한다.
도 18은 본 발명에 따른 방법을 이용해 물이 존재하는 수체구역을 구분한 결과의 예시를 도시한다.
도 19는 본 발명에 따른 방법에서 하천 하상 표고를 산정하는 방법을 도시한다.
도 20은 본 발명에 따른 방법을 이용해, 시간차가 있는 두 초분광 영상을 활용한 하상 변동속도 측정 절차를 도시한다.
1 shows a system for carrying out a method according to the invention;
2 is a flowchart illustrating an image processing method among methods according to the present invention.
3 is a flowchart illustrating an image analysis method among methods according to the present invention.
4 is a flowchart for explaining a method for measuring a river bed fluctuation rate according to the present invention.
5 is a photograph for explaining an example of an unmanned aerial vehicle used in the method according to the present invention.
6 is a schematic diagram for explaining a method for an unmanned aerial vehicle to acquire hyperspectral information in the method according to the present invention.
7 is a schematic diagram for explaining geometric correction in an image processing method among methods according to the present invention.
8 is a schematic diagram for explaining image registration in an image processing method among methods according to the present invention.
9 is a schematic diagram for explaining a method of using a normal correlation coefficient for image registration in an image processing method among methods according to the present invention.
10 is a schematic diagram for explaining a method of utilizing an integral image during image registration in an image processing method among methods according to the present invention.
11 is a schematic diagram for explaining a normalization step in an image processing method among methods according to the present invention.
12 is a diagram for explaining a band ratio of an image analysis method among methods according to the present invention.
13 is a view for explaining a process in which a regression analysis is performed using a band ratio and a water depth as an observation value in an image analysis method among the methods according to the present invention.
14 illustrates a correlation map set by an image analysis method among methods according to the present invention.
15 illustrates a method of selecting a regression equation using a correlation map by an image analysis method among methods according to the present invention.
16 shows a screen of a program in which the method according to the present invention is implemented.
17 illustrates a screen on which a final result is output through post-correction after completing the estimation of the water body by applying the water body determination step in the method according to the present invention.
18 shows an example of a result of classifying a waterbody zone in which water is present using the method according to the present invention.
19 shows a method for calculating the river bed elevation in the method according to the present invention.
20 shows a flow phase change rate measurement procedure using two hyperspectral images with a time difference using the method according to the present invention.

이하, 도면을 참조하여 본 발명을 보다 상세히 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

이하에서는, 초분광영상을 이용하여 실재 측정하지 않고도 높은 정확도로 관측값인 수심을 추정하는 방법을 설명한다. 다만, 아래에서 설명하고 청구범위에서 설명되는 방법의 개념이 적용된다면, 수심 이외의 다른 물체(예를 들어, 해색, 암체, 식생 등)에 대한 식별도 가능할 것이며, 이러한 과정이 동일하거나 균등한 범위 내의 개념에 따라 이루어진다면, 이에 대한 권리범위 역시, 아래의 청구범위에서 청구되는 본 발명의 범위 내에 포함될 수 있음을, 통상의 기술자는 이해할 수 있을 것이다. Hereinafter, a method of estimating the depth of the observation value with high accuracy without actually measuring using the hyperspectral image will be described. However, if the concept of the method described below and described in the claims is applied, identification of objects other than the depth of water (eg, sea color, rocks, vegetation, etc.) It will be understood by those skilled in the art that, if made according to the concept within, the scope of the rights thereto may also be included within the scope of the present invention as claimed in the claims below.

시스템의 설명Description of the system

본 발명에 따른 방법이 수행되는 시스템은, 초분광센서(140)와 음향측심기(101)가 탑재되어 초분광영상을 촬영하고 초음파 센싱하는 무인비행체(100)와, 촬영된 초분광영상의 정확도를 향상시키기 위한 처리가 수행되는 영상처리부(200)와, 처리된 초분광영상을 기초로 수심을 추정하는 기능이 수행되는 영상분석부(300)와 전기적으로 연결되는 데이터베이스부(400)로 구분될 수 있다. The system in which the method according to the present invention is performed includes an unmanned aerial vehicle 100 equipped with a hyperspectral sensor 140 and an echo sounder 101 to photograph a hyperspectral image and sense ultrasonic waves, and the accuracy of the captured hyperspectral image. It can be divided into an image processing unit 200 that performs processing to improve, and a database unit 400 electrically connected to an image analysis unit 300 that performs a function of estimating water depth based on the processed hyperspectral image. have.

일 실시예에서, 무인비행체(100)에 초분광센서(140)만 탑재될 수 있다.In one embodiment, only the hyperspectral sensor 140 may be mounted on the unmanned aerial vehicle 100 .

무인비행체(100)는 예를 들어 드론일 수 있으나, 지표면으로부터 근거리에서 비행하는 어떠한 형식의 비행체이어도 무방하다. The unmanned aerial vehicle 100 may be, for example, a drone, but may be any type of vehicle that flies at a short distance from the ground surface.

무인비행체(100)는, 자이로 센서와 가속도 센서가 있어 움직임의 반대 방향으로 카메라(130) 등을 이동시킬 수 있는 짐벌(110), 짐벌(110)에 구비되어 충격을 흡수하는 완충기(120), 초분광센서(140)가 탑재된 카메라(130), 및 초분광센서(140)에서 획득된 초분광정보를 영상처리부(200)에 전송할 수 있는 통신부(150)를 포함한다. The unmanned aerial vehicle 100 includes a gimbal 110 that has a gyro sensor and an acceleration sensor to move the camera 130 in the opposite direction to the movement, a shock absorber 120 that is provided in the gimbal 110 and absorbs shock; It includes a camera 130 on which the hyperspectral sensor 140 is mounted, and a communication unit 150 capable of transmitting hyperspectral information obtained from the hyperspectral sensor 140 to the image processing unit 200 .

짐벌(110)은 확보 가능한 어떠한 구조의 짐벌을 사용하여도 무방하나, 무게를 고려하여, 4축 또는 5축 짐벌보다는 1, 2, 3축 짐벌이 바람직하다. 다만, 1, 2, 3축 짐벌이 갖는 흔들림 보정의 한계는 완충기(120)의 보상으로 극복할 수 있다. The gimbal 110 may use a gimbal of any structure that can be secured, but in consideration of the weight, a 1, 2, or 3 axis gimbal is preferable rather than a 4 or 5 axis gimbal. However, the limitation of shake compensation of the 1, 2, and 3-axis gimbals can be overcome by the compensation of the shock absorber 120 .

또한, 무인비행체(100)에는 위치 정보를 확인하기 위한 GPS 센서가 더 포함될 수 있다. In addition, the unmanned aerial vehicle 100 may further include a GPS sensor for confirming location information.

또한, 음향측심기(101)는 초음파 센서를 이용해 수심을 측정하는 장치로, 고수심의 수심을 측정할 수 있다. 음향측심기(101)가 무인비행체(100)에 탑재된 경우, 초분광정보를 이용해 측정할 수 있는 수심에 한계가 있어 이를 해결하기 위해 탑재한 것이다. 음향측심기(101)에서 지형 결정 모듈(360)에서 미리 결정된 기준 초과에 해당하는 수심(초분광센서(140)로 센싱할 수 없는 수심)을 측정하여 초음파정보로 영상처리부(200)에 전송할 수 있다. 지형 결정 모듈(360)에서 미리결정된 기준은 바람직하게는 초분광 영상을 통해 산정할 수 있는 최대수심일 수 있으며, 구체적으로 3.5m 내지 4m일 수 있다. 즉, 3.5m 내지 4m를 초과하는 수심을 갖는 수체 구역에 대해 음향측심기(101)가 초음파 정보로 수심을 측정하여 영상처리부(200)에 전송하는 것이다.In addition, the echo sounder 101 is a device for measuring water depth using an ultrasonic sensor, and may measure a high depth of water. When the echo sounder 101 is mounted on the unmanned aerial vehicle 100 , there is a limit to the depth of water that can be measured using hyperspectral information, and it is mounted to solve this problem. In the echo sounder 101, the topography determination module 360 measures a water depth (depth that cannot be sensed by the hyperspectral sensor 140) that exceeds a predetermined criterion and transmits it to the image processing unit 200 as ultrasonic information. . Preferably, the predetermined criterion in the terrain determination module 360 may be the maximum depth that can be calculated through the hyperspectral image, and specifically, it may be 3.5m to 4m. That is, for a water body region having a water depth exceeding 3.5 m to 4 m, the echo sounder 101 measures the water depth using ultrasound information and transmits it to the image processing unit 200 .

이러한 무인비행체(100)의 예시가 도 5에 도시된다. An example of such an unmanned aerial vehicle 100 is shown in FIG. 5 .

영상처리부(200)는 통신모듈(210), 비행경로 설정모듈(220), 촬영영상 입력모듈(230), 정규화 수행모듈(240), 기하보정 수행모듈(250), 영상정합 수행모듈(260) 및 초분광영상 출력 모듈(270)을 포함한다. The image processing unit 200 includes a communication module 210 , a flight path setting module 220 , a captured image input module 230 , a normalization performing module 240 , a geometric correction performing module 250 , an image matching performing module 260 ) and a hyperspectral image output module 270 .

통신모듈(210)은 무인비행체(100)의 통신부(150)와 유선 또는 무선으로 통신하여, 촬영영상 입력모듈(230)이 초분광센서(140)에서 획득되는 초분광정보를 수신하도록 한다. 일 실시예에서, 촬영영상 입력모듈(230)이 음향측심기에서 획득되는 초음파정보를 수신할 수 있다. 수신하는 정보에는, 위치 정보가 포함될 수도 있다. The communication module 210 communicates with the communication unit 150 of the unmanned aerial vehicle 100 by wire or wirelessly so that the captured image input module 230 receives the hyperspectral information obtained from the hyperspectral sensor 140 . In an embodiment, the captured image input module 230 may receive ultrasound information obtained from the echo sounder. The received information may include location information.

비행경로 설정모듈(220)은 초분광정보 및/또는 초음파정보를 수집하고자 하는 수집영역을 기초로 하여, 그 영상을 확보하기 위한 무인비행체(100)의 비행경로를 설정하는 기능을 수행한다. The flight path setting module 220 performs a function of setting the flight path of the unmanned aerial vehicle 100 for securing the image based on a collection area for collecting hyperspectral information and/or ultrasound information.

정규화 수행모듈(240)은, 확보된 초분광정보의 정규화 기능을 수행한다. 모든 기하학적 변환에서, 회전, 크기, 평행성 보존 등은 원점(0, 0)을 기준으로 발생하기에, 각 영상에 존재하는 XY 좌표의 각 순서쌍의 정규화가 필요하다. The normalization performing module 240 performs a normalization function of the secured hyperspectral information. In all geometric transformations, rotation, magnitude, parallelism preservation, etc. occur with respect to the origin (0, 0), so normalization of each ordered pair of XY coordinates present in each image is necessary.

기하보정 수행모듈(250)은, 확보된 초분광정보에서 지면의 굴곡 등 기하학적 조건에 의한 왜곡을 보상하기 위한 기하보정을 수행한다.The geometric correction performing module 250 performs geometric correction for compensating for distortion caused by geometric conditions such as curvature of the ground in the secured hyperspectral information.

영상정합 수행모듈(260)은, 확보된 다수의 초분광정보를 정합하는 기능을 수행한다. 이를 위하여, 적분영상 연산모듈(261) 및 대응점 확인모듈(262)이 구비된다.The image matching performing module 260 performs a function of matching a plurality of secured hyperspectral information. To this end, an integral image operation module 261 and a corresponding point confirmation module 262 are provided.

초분광영상 출력 모듈(270)은, 정규화되고, 기하보정되고, 영상정합된 최종 결과물로서 획득된 초분광영상을 출력하는 기능을 수행한다. 이때, 일 실시예에서, 초음파정보에 의한 최종 결과물로서 획득된 영상과, 데이터베이스부(400)에 의해 제공받은 하천 제내지 지형 정보의 결과물로서 획득된 영상을 정합하여 제공할 수 있다. 이에 따라, 하천의 지형을 측정할 수 있는 범위와 수준에 따른 기술을 제공하여 정확한 영상을 제공할 수 있게 된다.The hyperspectral image output module 270 performs a function of outputting a hyperspectral image obtained as a normalized, geometrically corrected, and image-registered final result. In this case, according to an embodiment, an image obtained as a final result by ultrasound information and an image obtained as a result of river zoning or topography information provided by the database unit 400 may be matched and provided. Accordingly, it is possible to provide accurate images by providing technology according to the range and level that can measure the topography of the river.

각 모듈의 구체적인 기능 수행 방법은 후술한다.A method of performing a specific function of each module will be described later.

영상분석부(300)는, 초분광 관측값 입력모듈(310), 밴드비 연산모듈(320), 회귀분석모듈(330), 회귀식 결정모듈(340), 관측값 추정모듈(350), 지형 결정 모듈(360), 및 표고 산정 모듈(370)을 포함한다. The image analysis unit 300 includes a hyperspectral observation value input module 310 , a band ratio calculation module 320 , a regression analysis module 330 , a regression expression determination module 340 , an observation value estimation module 350 , a topography a determination module 360 , and an elevation estimation module 370 .

초분광 관측값 입력모듈(310)은, 미리 결정된 다수의 지점에 대한 실재 초분광 관측값인 수심(이하, '수심 관측값'이라 지칭함)을 입력하는 기능을 수행한다. 즉, 초분광영상에서 확보되는 촬영값과 상관관계를 확인하기 위한 실재의 수심이 입력되는 것이다. The hyperspectral observation value input module 310 performs a function of inputting a water depth (hereinafter, referred to as a 'depth observation value') that is an actual hyperspectral observation value for a plurality of predetermined points. That is, the actual depth of water is input to check the correlation with the captured values secured in the hyperspectral image.

밴드비 연산모듈(320)은, 영상처리부(200)로부터의 초분광영상에서 확보되는 촬영값(예를 들어, 화소값)을 통해 밴드비를 연산한다. The band ratio calculation module 320 calculates a band ratio based on a photographing value (eg, a pixel value) secured from the hyperspectral image from the image processing unit 200 .

회귀분석모듈(330)은, 수심 관측값과 밴드비의 회귀분석을 수행하여 회귀식을 연산한다. The regression analysis module 330 calculates a regression equation by performing a regression analysis of the depth observation value and the band ratio.

회귀식 결정모듈(340)은, 다수의 회귀식이 상관관계를 연산하여, 가장 상관성이 높은 회귀식을 결정하고, 이를 통해 최적의 밴드비를 결정하는 기능을 수행한다. The regression equation determination module 340 calculates the correlation of a plurality of regression equations, determines the most highly correlated regression equation, and determines the optimal band ratio through this.

관측값 추정모듈(350)은, 회귀식 결정모듈(340)에서 결정된 회귀식을 이용하여, 특정 초분광영상이 입력된 경우(즉, 임의의 밴드비가 입력된 경우), 이를 기반으로 관측값인 실재 수심을 추정하고, 이를 토대로 실재 물체를 식별하는 기능을 수행한다.The observation value estimation module 350 uses the regression equation determined by the regression equation determination module 340 to input a specific hyperspectral image (that is, when an arbitrary band ratio is input), based on the observation value It estimates the actual water depth and performs the function of identifying a real object based on this.

지형 결정 모듈(360)은 추정된 실재 수심과 정규식생지수(NDWI)를 이용하여 지형을 결정하는 것이다. 크게 하천 제외지(수체 구역)와 하천 제내지(식생 구역)으로 구분할 수 있는데, 이 때, 하천 제외지 중 미리 결정된 수심보다 깊은 수심을 갖는 영역을 고수심 영역으로, 그리고 미리 결정된 수심보다 낮은 수심을 갖는 영역을 저수심 영역으로 더 구분할 수 있다. The terrain determination module 360 determines the terrain using the estimated actual water depth and the regular vegetation index (NDWI). It can be broadly divided into river exclusion zone (waterbody zone) and river drainage zone (vegetation zone). The region having ? can be further divided into a low-water depth region.

지형 결정 모듈(360)이 추정된 실재 수심과 정규식생지수(NDWI)를 이용하여 구역을 결정하여 수체 구역과 하천 제내지 구역으로 출력할 수 있다.The topography determination module 360 may determine an area using the estimated actual water depth and the NDWI, and may output the determined area as a water body area and a river area.

구체적으로, 연산된 정규식생지수(NDWI)가 0이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정한 후 출력하는 것이다.Specifically, if the calculated regular vegetation index (NDWI) is greater than or equal to 0, it is determined as a waterbody area, and when it is less than 0, it is determined as a river sub-region, and each topography is determined and then output.

표고 산정 모듈(370)은 관측값 추정모듈(350)과 지형 결정 모듈(360)의 정보를 입력받아, 관측값 추정모듈(350)에서 추정된 실재 수심과 지형 결정 모듈(360)에서 결정된 수면 표고 등의 정보를 이용하여 임의의 지점의 표고를 산정 및 결정하는 모듈이다. 이 때, 지점으로 측정된 자료는 공간적인 자료로 변환하기 위해 보간법(Interpolation)을 실시한다. The elevation calculation module 370 receives information from the observation value estimation module 350 and the terrain determination module 360, and the actual water depth estimated by the observation value estimation module 350 and the water surface elevation determined by the topography determination module 360 It is a module that calculates and determines the elevation of an arbitrary point using information such as At this time, interpolation is performed to convert the data measured as a point into spatial data.

표고 산정 모듈(370)은 저장된 수학식을 이용하거나 산정된 수면의 표고에서 추정된 수심을 제하는 등 기설정된 방법으로 하상표고 E(x,y,t)를 산정한다.The elevation calculation module 370 calculates the river elevation E(x,y,t) by using a stored equation or by subtracting the estimated water depth from the calculated elevation of the water surface.

하상 변동속도 연산 모듈(380)은 관측값 추정모듈(350), 지형 결정 모듈(360) 및 표고 산정 모듈(370)의 정보를 입력받아, 정보를 저장된 수학식을 이용한 기설정된 방법으로 하상 변동속도를 연산한다. 이때, 하상 변동속도 연산 모듈(380)은 시간 변화량 δt 동안의 정보를 입력 받아 수체 구역과 하천 제내지 구역의 하천 하상 변동속도를 연산한다.The river bed fluctuation rate calculation module 380 receives information from the observation value estimation module 350, the topography determination module 360 and the elevation calculation module 370, and receives the information from the river bed fluctuation rate in a preset method using the stored equation. calculate At this time, the river bed fluctuation rate calculation module 380 receives the information during the time change amount δt and calculates the river bed fluctuation rate of the waterbody zone and the river sub-region.

각 모듈의 구체적인 기능 수행 방법은 후술한다.A method of performing a specific function of each module will be described later.

방법의 설명description of the method

본 발명에 따른 방법을 설명한다. 도 2를 참조한 영상 처리 방법과 도 3을 참조한 영상 분석 방법으로 구분하여 설명한다.The method according to the invention is described. An image processing method with reference to FIG. 2 and an image analysis method with reference to FIG. 3 will be described separately.

먼저, 도 2 및 도 6 내지 도 11을 참조하여 영상 처리 방법을 설명한다. First, an image processing method will be described with reference to FIGS. 2 and 6 to 11 .

비행경로 설정모듈(220)이, 수집영역을 이용하여 무인비행체(100)의 비행경로를 설정한다(S110). 수집영역은 수심을 추정하고자 하는 수체 및 그 주변의 하천 제외지 영역일 것이다. 음향측심기(101)와 초분광센서(140)가 라인 스캐닝을 수행하는바, 도 6에 도시된 바와 같이, 초음파정보 및 초분광정보를 획득하고자 하는 대상인 수집영역(collection area)에 대하여, 무인비행체(100)의 화각(angle of view)을 고려하여, 무인비행체(100)의 비행 경로(flight path)가 설정된다. 그 설정 방법은, 종래 기술에 따른 어떠한 것이어도 무방한바, 구체적인 설명은 생략한다.The flight path setting module 220 sets the flight path of the unmanned aerial vehicle 100 using the collection area (S110). The collection area will be the waterbody and the river exclusion area around which the water depth is to be estimated. As the echo sounder 101 and the hyperspectral sensor 140 perform line scanning, as shown in FIG. 6 , the unmanned aerial vehicle is a target for acquiring ultrasonic information and hyperspectral information. In consideration of the angle of view of (100), a flight path of the unmanned aerial vehicle 100 is set. The setting method may be any according to the prior art, and detailed description thereof will be omitted.

다음, 무인비행체(100)가, 상기 설정된 비행경로를 따라 비행하면서, 음향측심기(101) 및 초분광 센서(140)를 이용하여, 라인 스캐닝을 통해, 기 설정된 영상 단위마다 초음파정보 및 초분광정보를 획득한다(S120). 여기서의 영상 단위는 카메라(130) 또는 초분광 센서(140)의 특성에 따라 제조사에서 미리 설정된 것으로, 각 특성에 따라 상이한 방식으로 초음파정보 및 초분광정보가 획득될 수 있다. Next, while the unmanned aerial vehicle 100 flies along the set flight path, using the echo sounder 101 and the hyperspectral sensor 140, through line scanning, ultrasonic information and hyperspectral information for each preset image unit is obtained (S120). Here, the image unit is preset by the manufacturer according to the characteristics of the camera 130 or the hyperspectral sensor 140, and ultrasound information and hyperspectral information may be acquired in different ways according to each characteristic.

이와 같은 방법으로 확인된 초분광정보에 대하여, 기하보정이 이루어지고(S140), 영상정합이 이루어져서(S150), 영상 분석 대상이 되는 초분광영상이 확보된다. 초음파정보에 대하여도 동일하게 수행될 수 있다. 한편, 초음파정보는 음향측심기(101)에 의한 것이기 때문에, 이러한 과정 없이 기설정된 방법에 의해 바로 수심 값으로 확보될 수 있을 것이다.With respect to the hyperspectral information confirmed in this way, geometric correction is performed (S140) and image registration is performed (S150), so that a hyperspectral image to be analyzed is secured. The same may be performed for ultrasound information. On the other hand, since the ultrasound information is generated by the echo sounder 101, the depth value may be directly obtained by a preset method without such a process.

구체적인 방법을 설명한다. A specific method will be described.

기하보정은, 기하보정 수행모듈(250)에 의하여 이루어진다(도 7 참조). 구체적으로, 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정이 수행된다. 종래 알려진 어떠한 방법이 적용되어도 무방하다. 이 과정은 초음파정보에 대하여도 동일하게 수행될 수 있다.The geometric correction is performed by the geometric correction performing module 250 (see FIG. 7 ). Specifically, geometric correction is performed on the hyperspectral information obtained for each image unit by using the position information of each pixel. Any conventionally known method may be applied. This process can be performed in the same way for ultrasound information.

영상정합은, 다수의 초분광정보를 일정한 기준점을 이용하여 정합하는 과정이다(도 8 참조). 다수의 초분광정보 중 적어도 2개의 쌍이 상호 일부씩 중첩되도록 촬영되는데, 소정의 기준점을 찾고, 이러한 기준점을 기초로 2개의 쌍의 초분광정보를 중첩하고, 이러한 과정이 모든 초분광정보의 각 쌍에서 반복됨으로써, 초분광영상이 획득된다. 즉, 영상정합의 기초는 2개의 초분광정보를 중첩하는 과정이다.Image registration is a process of matching a plurality of hyperspectral information using a certain reference point (refer to FIG. 8). At least two pairs of hyperspectral information are photographed so as to partially overlap each other, a predetermined reference point is found, and two pairs of hyperspectral information are superimposed on the basis of this reference point, and this process is performed in each pair of all hyperspectral information. By repeating in , hyperspectral images are obtained. That is, the basis of image registration is the process of superimposing two pieces of hyperspectral information.

본 발명에서는, "대응점 추출 알고리즘"을 착안하여, 이에 따라 영상정합을 수행한다. 이는, 중첩하는 영역이 있는 2개의 초분광정보 중 어느 하나의 초분광정보에서 템플릿(template)을 추출하고, 추출된 템플릿을 다른 하나의 초분광정보에서 상관성이 가장 높은 지점을 찾음으로써, 해당 지점을 중첩의 기준의 되는 점, 즉 대응점(matching point)로 설정하는 알고리즘이다. 이를 도 9에 도시하였다. In the present invention, focusing on the "corresponding point extraction algorithm", image registration is performed accordingly. This is by extracting a template from any one hyperspectral information among the two hyperspectral information having an overlapping area, and finding the point with the highest correlation in the other hyperspectral information with the extracted template. It is an algorithm that sets α as a point that serves as a reference point for superposition, that is, a matching point. This is shown in FIG. 9 .

구체적으로, 중첩하는 영역이 있는 2개의 초분광정보(A, B)(도 9에서, image1과 image2로 표시)의 영상정합을 설명한다. Specifically, image registration of two hyperspectral information A and B (indicated by image1 and image2 in Fig. 9) with overlapping regions will be described.

먼저, 대응점 확인 모듈(262)이, 중첩하는 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산한다. 이러한 과정은, 후술할 바와 같이, 초분광정보(A)의 템플릿의 모든 픽셀의 XY 좌표(x, y) 각각마다 다른 하나의 초분광정보(B)의 템플릿의 모든 픽셀의 XY 좌표(x', y')를 모두 대응시킴으로써 다수 회 이루어지게 된다. First, the corresponding point confirmation module 262, in any two hyperspectral information (A, B) overlapping, the XY coordinates (x, y) of any one pixel of any one hyperspectral information (A) and the corresponding With respect to the pixel value (I(x, y)) in the coordinates, the XY coordinates (x', y') of any one pixel of the other hyperspectral information (B) and the pixel value (I( x', y'))), the normalized correlation is calculated. In this process, as will be described later, the XY coordinates (x') of all the pixels of the template of the hyperspectral information (B) are different for each XY coordinate (x, y) of all the pixels of the template of the hyperspectral information (A). , y') is made multiple times by matching all of them.

일반적인 정규상관계수를 연산하는 식은 아래의 수학식 1과 같으나, 본 발명에서는 보다 높은 정확도를 확보하기 위하여, 화소값을 더 이용한 수학식 2를 사용한다. Equation for calculating a general normal correlation coefficient is the same as Equation 1 below, but in the present invention, Equation 2 using more pixel values is used to secure higher accuracy.

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

초분광정보(A)의 XY좌표는 (x, y)로 표현되고, 초분광정보(B)의 XY좌표는 (x', y')로 표현된다. 상부 바는 평균값을 의미한다(이는 이하의 모든 수식에서 동일하다). n은 총 화소의 수, I(x, y)는 XY 좌표 상 (x, y)에 해당하는 화소값이며, 초분광정보(A)의 화소값이 I1으로 표현되고 초분광정보(B)의 화소값이 I2로 표현된다. W는 템플릿의 가로 화소 크기, H는 템플릿의 세로 화소 크기이다. The XY coordinates of the hyperspectral information (A) are expressed as (x, y), and the XY coordinates of the hyperspectral information (B) are expressed as (x', y'). The upper bar means the average value (this is the same for all equations below). n is the total number of pixels, I(x, y) is a pixel value corresponding to (x, y) on XY coordinates, the pixel value of hyperspectral information (A) is expressed as I 1 and hyperspectral information (B) The pixel value of is expressed as I 2 . W is the horizontal pixel size of the template, and H is the vertical pixel size of the template.

이와 같은 방식으로, 템플릿 상의 모든 픽셀 좌표마다 정규상관계수를 연산하고, 이를 XY좌표로 표현하면, 도 9의 우하단에 도시된 바와 같은 상관계수 맵(correlation map)을 산정할 수 있다. 상관계수 맵에서 최대값을 가지는 위치, 즉, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하게 된다. In this way, if a normal correlation coefficient is calculated for every pixel coordinate on the template and expressed in XY coordinates, a correlation map as shown in the lower right of FIG. 9 can be calculated. The position having the maximum value in the correlation coefficient map, that is, the XY coordinates of the point having a large normal correlation coefficient value is identified as the corresponding point of the two hyperspectral information (A, B).

이제, 영상정합 수행모듈(260)은 대응점을 기준으로 두 개의 초분광정보(A, B)를 영상 정합하게 된다. Now, the image matching performing module 260 performs image matching on the two hyperspectral information A and B based on the corresponding point.

영상정합 수행모듈(260)은 이러한 과정을 각각의 영상 단위마다의 모든 초분광정보의 각 쌍마다 수행하여 영상정합을 수행하며, 이를 통해 모든 촬영 영상들이 정합된 초분광영상이 획득된다. The image matching performing module 260 performs image registration by performing this process for each pair of all hyperspectral information for each image unit, thereby obtaining a hyperspectral image in which all captured images are matched.

다만, 이 경우 상당히 많은 연산이 수행되는바, 영상처리부(200)의 성능에 따라 연산 속도가 늦어질 수 있다. 따라서, 본 발명의 다른 실시예에서는, 보다 빠른 연산 속도를 구현하기 위해, 적분영상을 사용하여 연산량을 크게 줄인 상태에서 영상정합을 수행할 수 있다. 적분영상은 기준 좌표를 설정하고, 이를 기준으로 한 방향성을 이용하여, 각 픽셀의 화소값을 모두 합산한 후 이를 수학식 2와 같이 정규상관계수 연산에 필요한 화소값으로 사용하는 것이다. However, in this case, since quite a lot of calculations are performed, the calculation speed may be slow depending on the performance of the image processing unit 200 . Accordingly, in another embodiment of the present invention, in order to realize a faster operation speed, image registration may be performed in a state in which the amount of computation is greatly reduced by using an integral image. In the integral image, reference coordinates are set, and the pixel values of each pixel are summed up using the directionality based on the reference coordinates, and then used as the pixel values necessary for the normal correlation coefficient calculation as in Equation (2).

도 10를 참조하여, 적분영상을 사용하는 개념을 설명한다. 좌측은 일반적인 영상을 도시한다. 각 픽셀마다 기록된 숫자는 화소값이다. 우측은 좌측 영상을 이용한 적분영상을 도시한다. 여기의 적분영상에서는 좌상단의 "2"를 기준 좌표로 설정한 후, 좌측 및 하측 방향으로 각 값을 합산함으로써 형성한 적분영상이다. 예를 들어, 2번째 줄, 3번째 열의 "13"은 2+1+5+0+3+2의 값이다. A concept of using an integral image will be described with reference to FIG. 10 . The left shows a typical image. The number recorded for each pixel is the pixel value. The right side shows an integral image using the left image. The integral image here is an integral image formed by setting “2” in the upper left corner as a reference coordinate and then summing the values in the left and lower directions. For example, "13" in the 2nd row and 3rd column is the value of 2+1+5+0+3+2.

만약, 해당 영상에서 가운데의 9개의 픽셀의 화소값의 합을 구하고 싶다면, 좌측의 일반적인 영상에서는 총 9번의 연산을 수행하여야 한다. 하지만, 우측의 적분영상에서는 4번의 연산을 수행하면 족하다. 즉, 적분영상을 생성하여 둠으로써, 연산량을 50% 이하로 낮추는 것이다. If you want to find the sum of the pixel values of nine pixels in the middle of the image, you need to perform a total of nine operations on the general image on the left. However, in the integral image on the right, it is sufficient to perform four operations. That is, by generating an integral image, the amount of computation is reduced to 50% or less.

구체적으로, 초분광영상에서 적분영상을 활용하는 방법은 아래와 같다. 먼저, 수학식 3을 이용하여 각 픽셀마다 적분영상에 의한 새로운 화소값(II(x, y))을 설정한다. Specifically, the method of using the integral image in the hyperspectral image is as follows. First, a new pixel value II(x, y) based on the integral image is set for each pixel by using Equation 3.

Figure pat00009
Figure pat00009

각 기호는 수학식 2에서 밝힌 바와 같다. 이제 이를 이용하면, 수학식 2에서 설명한 정규상관계수는 수학식 4에 의하여 연산될 수 있다. Each symbol is as shown in Equation (2). Now, using this, the normal correlation coefficient described in Equation (2) can be calculated by Equation (4).

Figure pat00010
Figure pat00010

여기서, 분모에 사용되는 표준편차 σ의 값은 수학식 5를 통해 연산될 수 있다. I가 화소값을 의미함은 앞에서 밝힌 바와 같다. Here, the value of the standard deviation σ used in the denominator may be calculated through Equation 5. The fact that I means a pixel value is the same as described above.

Figure pat00011
Figure pat00011

이와 같이, 한 번 적분영상을 생성하여 두기만 하면, 수학식 3 내지 수학식 5를 이용함으로써, 매 연산마다 수학식 2의 많은 연산량을 사용할 필요가 없어지기에, 정규상관계수를 신속하게 연산할 수 있어서 바람직하다. In this way, once the integral image is created and placed, by using Equations 3 to 5, there is no need to use the large amount of calculation of Equation 2 for every operation, so that the normal correlation coefficient can be calculated quickly. It is preferable to be able to

한편, 전술한 바와 같이, 모든 기하학적 변환에서, 회전, 크기, 평행성 보존 등은 원점(0, 0)을 기준으로 발생하기에, 본 발명의 일 실시예에서는, 각 영상에 존재하는 XY 좌표의 각 순서쌍의 정규화를 수행한 후, 기하보정 및 영상정합이 이루어질 수 있다. On the other hand, as described above, in all geometric transformations, rotation, size, parallelism preservation, etc. occur based on the origin (0, 0), so in an embodiment of the present invention, the XY coordinates present in each image are After performing normalization of each ordered pair, geometric correction and image registration may be performed.

구체적으로, 정규화 모듈(240)은, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화한다. 이러한 개념이 도 11에 도시된다. Specifically, the normalization module 240 sets the XY coordinates of the pixels of the hyperspectral information of any one image unit as an ordered pair of integers (x, y), calculates the average coordinates of the set XY coordinates, and the operation The XY coordinates (x, y) are normalized to the XY coordinates (x', y) so that the unit distance between the ordered pairs (x, y) of each integer is √2 by setting the average coordinates as the origin (0, 0). '), normalizes the hyperspectral information of any one image unit. This concept is illustrated in FIG. 11 .

보다 구체적으로, 이러한 연산은 수학식 6을 이용할 수 있다. More specifically, this operation may use Equation (6).

Figure pat00012
Figure pat00012

여기서, A는 정규화하고자 하는(즉, 정규화되지 않은) 초분광정보에서의 XY 좌표이고, A'는 정규화된 XY 좌표이다. 여기서의 좌표는, 후술하는 매개변수 연산을 위해, 동차좌표계를 이용하는 것이 바람직하다. 즉, XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭된다. 일종의 벡터와 같이 표현한 것으로서, 달리 표현하면, 동차좌표계 안에서 (x, y)좌표는 무수히 많은 점으로 이루어진 선으로 이해할 수 있다. Here, A is the XY coordinates in hyperspectral information to be normalized (ie, not normalized), and A' is the normalized XY coordinates. For the coordinates here, it is preferable to use a homogeneous coordinate system for parameter calculation to be described later. That is, the XY coordinates are referred to as the determinant A as (x, y, 1), and the XY coordinates after normalization are referred to as the determinant A' as (x', y', 1). It is expressed as a kind of vector. In other words, the (x, y) coordinates in the homogeneous coordinate system can be understood as a line made up of countless points.

H는 정규화를 위한 매개변수(h11~h33)로 구성된 행렬인 호모그래피이다. 즉, 호모그래피(H)를 연산해두면, 모든 초분광정보를 손쉽게 정규화할 수 있다. H is a homography, which is a matrix composed of parameters (h 11 to h 33 ) for normalization. That is, if the homography (H) is calculated, all hyperspectral information can be easily normalized.

호모그래피(H)의 연산을 위해서, 수학식 6을 이용하되, 어느 하나의 정규화된 값이 필요하다. 즉, 어느 하나의 초분광정보에 대해서는, 도 11을 참조하여 설명한 방법을 이용하여 별도로 정규화한 후, 그 값을 이용하여 호모그래피(H)를 연산하는 것이다. 예를 들어, 정규화되기 이전의 XY 좌표의 x 및 y의 순서쌍 4개를 알고, 해당 순서쌍 4개의 정규화된 값을 알 경우, 수학식 6을 이용하면, 수학식 7 및 수학식 8을 도출할 수 있으며, 이에 따라 각 매개변수(h11~h33)를 확인할 수 있다. For the calculation of the homography (H), Equation 6 is used, but any one normalized value is required. That is, any one hyperspectral information is separately normalized using the method described with reference to FIG. 11 , and then the homography H is calculated using the value. For example, if four ordered pairs of x and y of the XY coordinates before normalization are known, and the normalized values of the four ordered pairs are known, using Equation 6, Equations 7 and 8 can be derived and, accordingly, each parameter (h 11 ~ h 33 ) can be checked.

Figure pat00013
Figure pat00013

Figure pat00014
Figure pat00014

수학식 8에 의하여 호모그래피(H)가 연산되면, 이제 모든 초분광영상의 모든 픽셀의 XY 좌표를 수학식 6에 대입함으로써, 별도로 정규화된 값을 연산할 필요도 없이, 작은 연산량만으로 정규화가 가능하다. If the homography (H) is calculated according to Equation 8, now, by substituting the XY coordinates of all pixels of all hyperspectral images into Equation 6, normalization is possible only with a small amount of computation without separately calculating normalized values do.

이와 같이, 호모그래피(H)가 있다는 것은, 대응점 사이의 좌표 변화만 가능한 것뿐만 아니라 2개의 초분광정보의 좌표계에 존재하는 모든 점을 서로 변환 가능한 것을 의미한다. 따라서, 2개의 초분광정보 중 어느 하나의 초분광정보를 기준으로 나머지 다른 초분광정보를 정규화하여 좌표 변환을 실시하면 두 초분광영상은 동일 좌표계로 이동하게 된다. As described above, the existence of the homography H means that not only coordinate changes between corresponding points are possible, but also all points existing in the coordinate system of two hyperspectral information can be transformed into each other. Accordingly, when coordinate transformation is performed by normalizing the other hyperspectral information based on one hyperspectral information among the two hyperspectral information, the two hyperspectral images are moved to the same coordinate system.

다음, 도 3 및 도 12 내지 도 17을 참조하여 영상 분석 방법을 설명한다. Next, an image analysis method will be described with reference to FIGS. 3 and 12 to 17 .

전술한 영상 처리 방법이 수행된 초분광영상이 확보된 상태이다. 또한, 수심 추정을 위해, 미리 결정된 다수의 지점마다 각각의 초분광 관측값인 수심 관측값(Y)이 별도로 확인되어 있어야 한다(S210). 즉, 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력된 것이다. 여기서, 회귀분석의 정확도를 위하여, 수심 관측값(Y)이 확인되는 지점은 다수일수록 바람직하다.The hyperspectral image on which the above-described image processing method has been performed is secured. In addition, for the estimation of the depth, the observation value Y, which is each hyperspectral observation value, for each of a plurality of predetermined points must be separately identified (S210). That is, the observation value Y of each of a plurality of predetermined points is input to the hyperspectral observation value input module 310 . Here, for the accuracy of the regression analysis, it is preferable that the number of points at which the observation value Y is confirmed is greater.

다음, 촬영영상 입력모듈(210)에는 초분광정보를 갖는 촬영영상이 입력되고, 수심 관측값이 입력되었던 미리 결정된 다수의 지점 각각에서 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))이 확인된다(S220). Next, a photographed image having hyperspectral information is input to the photographed image input module 210, and a hyperspectral photographing value ( I(x)) is confirmed (S220).

다음, 밴드비 연산모듈(320)이, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하고, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인한다(S230). 이 때에, 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(X)를 연산한다(S240)(도 12 참조). 이를 수식으로 표현하면, 아래의 수학식 9와 같다. Next, the band ratio calculation module 320 selects a pair (λ 1 , λ 2 ) of any two wavelengths among a plurality of wavelengths (x) included in the hyperspectral imaging value, and a hyperspectral imaging value for each (I(λ 1 ), I(λ 2 )) is checked (S230). At this time, the band ratio X is calculated by dividing one of the two identified hyperspectral imaging values I(λ 1 ) and I(λ 2 ) by the other ( S240 ) (see FIG. 12 ). If this is expressed as an equation, it is shown in Equation 9 below.

Figure pat00015
Figure pat00015

달리 표현하면, 어느 하나의 지점마다 밴드비가 연산되어 수심 관측값(Y)과 밴드비(X)가 확인되는데, 다수의 지점마다 각각 개별적으로 수행되는 것이다.In other words, the band ratio is calculated for each point to check the depth observation value (Y) and the band ratio (X), which is performed individually for each of a plurality of points.

다음, 회귀분석모듈(330)이, 수심 관측값(Y)과 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 다수의 지점 각각에서 S210 단계에서 확인된 수심 관측값(Y)과 S240 단계에서 연산된 밴드비(X)를 이용함으로써, 회귀식(Y=aX+b)의 a와 b를 연산하여, 회귀식(Y=aX+b)을 생성한다(S250). 여기서 a를 연산하는 구체적인 수식은 아래의 수학식 10과 같으며, a의 값이 연산되면 b의 값은 당연히 연산된다. n은 수심 관측값의 개수이며, X는 밴드비이고, Y는 수심 관측값이다. Next, the regression analysis module 330 assumes that the depth observation value (Y) and the calculated band ratio (X) are in a linear relationship, and the depth observation value (Y) confirmed in step S210 at each of a plurality of points and By using the band ratio (X) calculated in step S240, a and b of the regression equation (Y=aX+b) are calculated, and a regression equation (Y=aX+b) is generated (S250). Here, a specific formula for calculating a is the same as Equation 10 below, and when the value of a is calculated, the value of b is naturally calculated. n is the number of depth observations, X is the band ratio, and Y is the depth observation.

Figure pat00016
Figure pat00016

도 13은 그 예시를 도시한다. 여기에는, 5개의 지점(P1, P2, P3, P4, P5)(즉,n=5)에서의 밴드비(X)와 수심 관측값(Y)을 이용하여 연산된 회귀식이 우측 하단에 도시된다.13 shows an example thereof. Here, the regression equation calculated using the band ratio (X) and the depth observation value (Y) at five points (P1, P2, P3, P4, P5) (ie, n=5) is shown in the lower right corner. .

한편, 이러한 과정은 S230 단계에서 선택된 2개의 파장을 변경하면서 각각의 쌍에 대하여 이루어질 수 있다. 미리 결정된 지점이 동일하고, 각 지점에서의 수심 관측값(Y)이 동일하더라도, 2개의 파장을 다르게 선택하면, 최종 연산되는 회귀식은 다르게 된다. Meanwhile, this process may be performed for each pair while changing the two wavelengths selected in step S230. Even if the predetermined point is the same and the observation value (Y) of the depth at each point is the same, if two wavelengths are selected differently, the final calculated regression equation is different.

구체적으로, 회귀분석모듈(330)이, 먼저 선택된 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, S240 내지 S250 단계를 반복하여, 다수의 회귀식을 생성한다(S260).Specifically, the regression analysis module 330 selects an arbitrary wavelength other than the first selected pair of two wavelengths, checks the hyperspectral imaging value for this, and repeats steps S240 to S250, a plurality of regression equations to generate (S260).

다음, 회귀식 결정모듈(340)이, 생성된 다수의 회귀식의 상관계수를 각각 연산하고, 그 중에서 상관계수가 가장 높은 회귀식을 선택한다(S270). 이 때에 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정된다. Next, the regression equation determination module 340 calculates the correlation coefficients of the generated multiple regression equations, and selects a regression equation having the highest correlation coefficient among them ( S270 ). At this time, two wavelengths applied to the band ratio (X) used in the selected regression equation are determined as a pair of optimal band ratio wavelengths.

예를 들어, 초분광정보에 포함된 파장의 개수가 N개라면, 2개의 파장의 쌍의 개수는 그 조합(combination)에 의하여 NC2개이므로, 해당 개수만큼 회귀식과 상관계수가 연산되어, 최적의 회귀식과 밴드비와 그 파장이 연산될 것이다.For example, if the number of wavelengths included in the hyperspectral information is N, the number of pairs of two wavelengths is N C 2 by the combination. The optimal regression equation and the band ratio and its wavelength will be calculated.

한편, 이러한 방식은 상관계수 맵을 이용하여 이루어질 수 있다. 상관계수 맵의 예시가 도 13에 도시된다(이는, 도 9에 설명된 영상 처리 방법의 상관계수 맵에 적용된 수치와 다른 개념이 적용된 것임에 주의한다). 여기에는, 회귀식 결정모듈(340)이, 생성된 다수의 회귀식에 대한 상관계수를 연산하되, 2개의 파장의 쌍에서 어느 하나의 파장을 X축으로 하고 다른 하나의 파장을 Y축으로 하여 생성한 상관계수 맵이 도시된다.On the other hand, this method may be achieved using a correlation coefficient map. An example of the correlation coefficient map is shown in FIG. 13 (note that a concept different from the numerical value applied to the correlation coefficient map of the image processing method described in FIG. 9 is applied). Here, the regression expression determination module 340 calculates the correlation coefficients for the generated plurality of regression equations, but in a pair of two wavelengths, one wavelength is the X-axis and the other wavelength is the Y-axis. The generated correlation coefficient map is shown.

다음, 회귀식 결정모듈(340)은 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하게 된다.Next, the regression expression determination module 340 determines a point having the highest correlation coefficient using the correlation coefficient map, and determines each wavelength constituting the corresponding point as a pair of the optimal band ratio wavelengths.

도 15에는 이러한 방식을 자동화하는 개념이 도시된다. 분광특성인 파장마다의 촬영값을 추출하고, 이를 통해 각각의 밴드비를 산정하고, 수심 관측값을 이용하여 회귀분석하면, 상관계수 맵이 생성되며, 각 파장의 쌍마다 상관계수를 연산함으로써, 최적 밴드비 파장과 최적 회귀식이 결정된다.15 shows the concept of automating this scheme. By extracting the imaging value for each wavelength, which is a spectral characteristic, and calculating each band ratio through this, and regression analysis using the depth observation value, a correlation coefficient map is generated, and by calculating the correlation coefficient for each pair of wavelengths, An optimal band ratio wavelength and an optimal regression equation are determined.

도 16은 이를 구현한 프로그램의 출력 화면을 도시한다. 우측의 상관계수 맵이 도시되며, 그 아래에는 각 파장에 대한 상관계수 및 회귀식이 자동으로 연산됨을 확인할 수 있다. 16 shows an output screen of a program implementing this. The correlation coefficient map on the right is shown, and it can be seen that the correlation coefficient and regression equation for each wavelength are automatically calculated below it.

이와 같은 과정을 통하여, 최적의 회귀식과 최적의 밴드비가 결정되면, 수심 관측값이 없는 위치에서도 초분광영상에 포함된 초분광정보의 파장과 촬영값만으로도 수심 관측값을 추정할 수 있다. Through this process, when the optimal regression equation and the optimal band ratio are determined, the depth observation value can be estimated using only the wavelength and the photographing value of the hyperspectral information included in the hyperspectral image even at a position where there is no depth observation value.

예를 들어, 관측값 추정모듈(350)이, 초분광영상에 포함된 촬영값 중에서 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하여 밴드비를 연산하면, 이를 최적의 회귀식에 입력하여 해당 지점의 수심 관측값을 높은 정확도로 추정할 수 있는 것이다.For example, when the observation value estimation module 350 calculates the band ratio by checking two hyperspectral imaging values corresponding to the pair of optimal band ratio wavelengths among the imaging values included in the hyperspectral image, it is used for optimal regression. By entering into the equation, the observation value of the depth of the corresponding point can be estimated with high accuracy.

한편, 본 발명의 바람직한 실시예에서는, 최종 결과물인 수심 관측값이 식생 등으로 인하여 왜곡되는 현상을 방지하기 위한 단계를 더 포함할 수 있다. 이를 위하여 관측값 추정모듈(350)이 초분광영상에서 근적외선(NIR)에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산한다.Meanwhile, in a preferred embodiment of the present invention, the method may further include a step of preventing a phenomenon in which the final result, the observation value of depth, is distorted due to vegetation or the like. To this end, the observation value estimation module 350 calculates the normal vegetation index (NDWI) by using the intensity of light with respect to the wavelength corresponding to the near-infrared (NIR) in the hyperspectral image.

정규식생지수(NDWI)는 아래의 수식으로 연산된다. 여기에서, NIR은 초분광영상의 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 초분광영상의 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기이다. The regular expression index (NDWI) is calculated by the following formula. Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information of the hyperspectral image, and Green is the intensity of light at the wavelength corresponding to green among the values included in the hyperspectral information of the hyperspectral image. is the intensity of light.

Figure pat00017
Figure pat00017

위의 수학식 11로 연산된 값인 정규식생지수(NDWI)는 -1 내지 1의 범위에서 값을 갖게 된다. 정규식생지수(NDWI)가 0 이상일 경우 수체(하천제내지)로 판단하여, 앞선 단계에서 추정된 수심 관측값을 그대로 출력하면 되나, 0보다 작은 경우라면 수체가 아닌 것(즉, 식생 등 하천제외지)으로 판단하여 수심을 0으로 출력하거나 하천 제외지 구역으로 출력한다. 이 때, 0보다 작은 경우라면 수체가 아닌 것으로 판단하여 수심을 0으로 출력함으로써 식생 등에 의한 왜곡으로 수심이 일정 부분 연산되었던 것을 보상할 수 있다.The regular expression index (NDWI), which is a value calculated by Equation 11 above, has a value in the range of -1 to 1. If the regular vegetation index (NDWI) is 0 or more, it is judged as a waterbody (streams or rivers) and the water depth observation value estimated in the previous step can be output as it is. ), and output the water depth as 0 or output as a river exclusion zone. At this time, if it is less than 0, it is determined that the water body is not, and the water depth is output as 0, thereby compensating for the partial calculation of the water depth due to distortion due to vegetation or the like.

도 17의 좌측은 일반적인 카메라에 의하여 촬영된 영상을 도시하고, 우측은 본 발명에 따른 방법이 수행된 결과물을 도시한다. 정규식생지수(NDWI)의 활용으로 수체인 부분(청색 부분)과 아닌 부분이 구분되었으며, 수체인 부분에서는 회귀식을 이용한 추정 방법에 의하여, 높은 정확도로 각 지점들의 모든 수심이 빠짐없이 연산되었다. 이를 실재 데이터와 비교하여, 본 발명에 따른 방법의 정확도가 높음을 검증할 수 있었다.이러한 단계를 수행함으로써, 수심 관측값 추정 정확도가 더욱 상승할 수 있다. The left side of FIG. 17 shows an image captured by a general camera, and the right side shows the result of performing the method according to the present invention. The water chain part (blue part) and the non-water part part were distinguished by the use of the regular vegetation index (NDWI). By comparing this with real data, it was possible to verify that the accuracy of the method according to the present invention is high. By performing these steps, the accuracy of estimating the depth observation value can be further improved.

도 4 및 도 18 내지 도 20을 참조하여 하상 변동속도 측정을 위한 하상표고 산정 방법을 더 설명한다.A method of calculating the elevation of the river bed for measuring the rate of change of the river bed will be further described with reference to FIGS. 4 and 18 to 20 .

본 발명은 초분광 영상으로 고수심에 대한 수심 관측값을 추정하는데 발생하는 한계를 보완하고 정확도를 상승시키기 위해 표고 산정 모듈(370)을 더 이용하여 하천 지형을 측량할 수 있다.According to the present invention, the river topography can be surveyed by further using the elevation calculation module 370 in order to improve the accuracy and compensate for the limitations that occur in estimating the observation value of the water depth for the high depth with the hyperspectral image.

먼저, 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산한다(S310).First, the observation value estimation module 350 calculates the normal vegetation index (NDWI) by using the intensity of light with respect to the wavelength corresponding to the near infrared in the hyperspectral image (S310).

다음, 지형 결정 모듈(360)이, 연산된 정규식생지수(NDWI)가 0 이상인 구역을 수체 구역으로 결정하고, 0보다 작은 구역을 하천 제내지 구역으로 결정한다(S320).Next, the topography determination module 360 determines a region in which the calculated regular vegetation index (NDWI) is equal to or greater than 0 as a waterbody region, and determines a region less than 0 as a river subregion (S320).

다음, 표고 산정 모듈(370)이, 데이터베이스부(400)에서 지형 결정모듈에 의해 결정된 수체 구역과 하천 제내지 구역에 상응하는 구역의 지형 정보 중 표고 정보를 수집한다(S330).Next, the elevation calculation module 370 collects elevation information among the topographic information of the waterbody zone determined by the topography determination module in the database unit 400 and the zone corresponding to the river subregion (S330).

데이터베이스부(400)에는 종래의 지형측량 방법을 활용하여 제내지에 대한 표고 정보가 미리 저장되어 있으며, 지리 정보 시스템(geographic information system, GIS)의 정보를 불러온 것일 수 있다. 지형측량 방법은 널리 알려진 방법을 사용하는 것이므로 별도의 설명은 생략한다.In the database unit 400, the elevation information for the paper site is stored in advance by using a conventional topographic survey method, and information of a geographic information system (GIS) may be retrieved. Since the topographic survey method uses a well-known method, a separate description is omitted.

다음, 표고 산정 모듈(370)이, 지형 결정 모듈(360)에 의해 결정된 수체 구역의 외곽선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 해당 위치정보에 상응하는 위치의 표고 정보를 이용하여 이를 수면의 표고로 산정힌다(S340). 이와 관련된 식은 아래의 수학식 12와 같다. Next, the elevation calculation module 370 uses the location information of each pixel of a plurality of points constituting the outline of the waterbody area determined by the topography determination module 360 to obtain the elevation information of the location corresponding to the location information. Using it, it is calculated as the elevation of the water surface (S340). Equation related to this is as Equation 12 below.

Figure pat00018
Figure pat00018

다음, 표고 산정 모듈(370)이, (S340) 단계에서 산정된 수면의 표고에서 추정된 수심을 제하여 이를 제1 하상표고로 산정한다(S350).Next, the elevation calculation module 370 calculates this as the first river bed elevation by subtracting the estimated water depth from the elevation of the water surface calculated in step (S340) (S350).

도 18은 수학식 11을 활용하여 적용한 결과로, 물이 존재하는 수체구역을 구분한 결과의 예시로서, 물의 존재 여부에 따라 수체구역을 구분할 수 있다. 수체구역이 아닌 지역에 대해서는 드론이나 직접 측정한 수치표고 모형의 표고를 활용하고, 수체구역인 지역에 대해서는 수체구역 외곽선을 구성하는 다수의 점의 위치에 해당하는 표고를 활용하여 수면의 표고를 산정하며, 산정된 수면의 표고와 임의의 지점에 대한 수심자료를 활용하여 하상의 표고를 산정한다. 이와 관련된 식은 아래의 수학식 13과 같다. 본 발명은, 각 구역에 따라 정확도가 높은 수심 관측법을 제공할 수 있으며, 각각 관측된 수심 값을 이용해 산정되는 하상표고의 구분을 위해, 초분광 영상을 이용해 추정된 수심 관측값을 이용해 산정된 하상표고를 제1 하상표고로 결정하였다.FIG. 18 is an example of a result of dividing a waterbody region in which water exists as a result of applying Equation 11, and the waterbody region may be classified according to the presence or absence of water. For areas other than the waterbody area, the elevation of a digital elevation model measured by drones or directly is used, and for the area that is a waterbody area, the elevation of the water surface is calculated by using the elevations corresponding to the locations of multiple points constituting the outline of the waterbody area. The elevation of the riverbed is calculated by using the calculated elevation of the water surface and the water depth data for any point. Equation related to this is as Equation 13 below. The present invention can provide a depth observation method with high accuracy according to each zone, and for classification of the river bed elevation calculated using the observed water depth value, the river bed calculated using the water depth observation value estimated using the hyperspectral image The elevation was determined as the first riverbed elevation.

이 때, 하상 변동속도 연산 모듈(380)에서의 연산을 위해 표고 산정 모듈(370)이, 제1 하상표고를 하상표고 E(x,y,t)로 산정하는 것이 바람직할 것이다.At this time, it is preferable that the elevation calculation module 370 calculates the first riverbed elevation as the riverbed elevation E(x,y,t) for the calculation in the riverbed fluctuation rate calculation module 380 .

Figure pat00019
Figure pat00019

도 19는 본 발명에 따른 드론 기반 초분광 영상을 활용한 수심 측정 방법을 활용하여, 하천 하상의 표고를 산정하는 방법을 도시화 한 것이다. 수체구역 내 하상에 대한 임의 지점의 표고는 수면표고에서 해당 지점의 수심을 제외하여 산정한다.19 is a diagram illustrating a method of calculating the elevation of a river bed by using a method for measuring depth using a drone-based hyperspectral image according to the present invention. The elevation of any point on the riverbed in the waterbody zone is calculated by subtracting the water depth of the point from the water surface elevation.

다른 실시예에서, 표고 산정 모듈(370)이, 수체 구역 중 미리 결정된 수심을 초과하는 수심을 갖는 수체 구역에 대해 초음파정보를 이용하여 미리 설정된 방법으로 제2 하상표고를 산정한다.In another embodiment, the elevation calculation module 370 calculates a second river bed elevation using ultrasound information for a waterbody zone having a water depth exceeding a predetermined water depth among the waterbody zones by a preset method.

상기 지형 결정 모듈(360)에서 미리 결정된 수심은 초분광 영상을 통해 산정할 수 있는 최대 수심인 것이 바람직하다. 초분광 영상을 통해 산정할 수 있는 최대 수심은 한계가 있어 상대적으로 고수심을 측정하는데 한계가 있기 때문이다. 여기서, 초음파정보를 이용하여 추정된 수심 관측값을 이용해 산정된 하상표고를 제2 하상표고로 결정하였다.Preferably, the water depth predetermined in the topography determination module 360 is the maximum water depth that can be calculated through the hyperspectral image. This is because the maximum depth that can be estimated through hyperspectral images is limited, and there is a limit in measuring relatively high depths. Here, the river bed elevation calculated using the observation value of the water depth estimated using the ultrasound information was determined as the second river bed elevation.

다음, 상기와 같은 단계를 거쳐 추정된 수심 관측값을 미리 설정된 방법에 따라 도 20과 같이 하상 변동속도로 연산될 수 있다(S350). 시간차가 있는 하상표고를 이용하여 하상 변동속도 측정 절차를 표현한 것으로, 두 초분광 영상으로 표현된 하천 하상의 표고는 짧은 시간동안에는 변화가 없고, 그 움직임이 매우 작기 때문에 짧은 시간 동안의 표고는 수학식 14와 같이 정의할 수 있다.Next, the water depth observation value estimated through the above steps may be calculated as shown in FIG. 20 according to a preset method (S350). The flow rate measurement procedure is expressed using the river bed elevation with a time difference. The elevation of the river bed expressed by two hyperspectral images does not change for a short time, and since the movement is very small, the elevation for a short time is calculated by the equation 14 can be defined as

Figure pat00020
Figure pat00020

여기서, x는 X방향 좌표, y는 Y방향 좌표, t는 시간, E는 표고, δx는 x 방향 변화량, δy는 y방향 변화량, δt는 시간 변화량이다.Here, x is the X-direction coordinate, y is the Y-direction coordinate, t is the time, E is the elevation, δx is the amount of change in the x direction, δy is the amount of change in the y direction, and δt is the amount of time change.

수학식 14의 우항을 테일러 전개 하면, Taylor expansion of the right term of Equation 14,

Figure pat00021
Figure pat00021

수학식 14와 수학식 15를 동시에 동시에 만족하기 위해서는 수학식 15의 우항의 미분식의 합이 수학식 16과 같이 0이 되어야 한다. 0이 아닌 δt 시간으로 양변을 나누어 수학식 17과 같이 x방향 및 y방향 변동속도로 구성된 식으로 변환할 수 있다(s350).In order to simultaneously satisfy Equation (14) and Equation (15), the sum of the differential expressions of the right term of Equation (15) must be 0 as in Equation (16). By dividing both sides by the non-zero δt time, it can be converted into an equation composed of the x-direction and y-direction fluctuation rates as in Equation 17 (s350).

이를 위해, 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)로 산정할 것이다.To this end, the elevation calculation module 370 will calculate the river elevation E(x,y,t) by subtracting the estimated water depth from the calculated elevation of the water surface.

Figure pat00022
Figure pat00022

Figure pat00023
Figure pat00023

여기에서, Ex는 표고의 X방향 미분행렬, Ey는 표고의 Y방향 미분행렬, Vx는 표고의 X방향 변동속도, Vy는 표고의 Y방향 변동속도, Et는 표고의 시간 미분행렬이다.Here, Ex is the X-direction differential matrix of elevation, Ey is the Y-direction differential matrix of elevation, Vx is the X-direction velocity of elevation, Vy is the Y-direction velocity of elevation, and Et is the elevation time differential matrix.

수학식 17을 통해 하상 변동속도를 구하기 위해서는 수학식 18 내지 19와 같은 행렬식 형태로 변환하여 풀이한다. 행렬 A는 행과 열의 크기가 다른 비정방행렬이므로 비정방행렬의 역행렬은 의사역행렬(Pseudo inverse)을 통해 산정한다.In order to obtain the lower-phase change rate through Equation 17, it is converted into a determinant form such as Equations 18 to 19 and solved. Since matrix A is a non-square matrix with different row and column sizes, the inverse of the non-square matrix is calculated using a pseudo inverse matrix.

Figure pat00024
Figure pat00024

여기서,here,

Figure pat00025
Figure pat00025

qn은 수체구역 내 임의의 지점, n은 수체구역 내 지점의 개수이다.q n is any point in the waterbody zone, and n is the number of points in the waterbody zone.

위의 수학식과 같은 연산의 과정을 통해 S350 단계에서 하상변동 속도를 연산함으로써 측정할 수 있게 될 것이다.It will be possible to measure by calculating the lower-phase change speed in step S350 through the process of calculation as in the above equation.

다른 실시예에서, 표고 산정 모듈(370)이, 추정된 수심 중 지형 결정 모듈(360)에서 미리 결정된 수심을 초과하는 수심에 대해 초음파정보를 이용하여 하상표고를 산정한다. 산정된 수면의 표고에서 초음파센서를 통해 측정된 수심을 제외하여 산정하는 것이다.In another embodiment, the elevation calculation module 370 calculates the river bed elevation by using ultrasound information for a depth exceeding a water depth predetermined by the topography determination module 360 among the estimated water depths. It is calculated by subtracting the water depth measured through the ultrasonic sensor from the calculated surface elevation.

다음으로, 표고 산정 모듈(370)이, 데이터베이스부(400)에서 S320단계에서 결정된 하천 제내지 구역에 상응하는 구역의 지형 정보 중 표고 정보를 수집한다.Next, the elevation calculation module 370 collects elevation information among the topographical information of the area corresponding to the river subregion determined in step S320 in the database unit 400 .

데이터베이스부(400)에 지형측량 방법을 활용하여 측정된 표고 정보가 미리 저장되어 있으며, 지리 정보 시스템(geographic information system, GIS)의 정보를 불러온 것일 수 있다.Elevation information measured by using the topographical survey method is stored in the database unit 400 in advance, and information of a geographic information system (GIS) may be called.

상기 지형 결정 모듈(360)에서 미리결정된 수심은 초분광 영상을 통해 산정할 수 있는 최대 수심인 것이 바람직하다. 초분광 영상을 통해 산정할 수 있는 최대 수심은 한계가 있어 상대적으로 고수심을 측정하는데 한계가 있기 때문이다.일 실시예의 경우, 지형 결정 모듈(360)에서 결정된 수체 구역 및 하천 제내지 구역에 대한 하상 변동속도를 모두 연산하여 제공할 수 있다.The water depth predetermined in the topography determination module 360 is preferably the maximum water depth that can be calculated through the hyperspectral image. This is because there is a limit to the maximum water depth that can be calculated through the hyperspectral image, so there is a limit in measuring a relatively high depth. It is possible to calculate and provide all the fluctuation rates.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are merely exemplary, and those skilled in the art may make various modifications and equivalent other modifications from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the protection scope of the present invention should be defined by the claims.

100: 무인비행체
101: 음향 측심기
110: 짐벌
120: 완충기
130: 카메라
140: 초분광 센서
150: 통신부
200: 영상처리부
210: 통신모듈
220: 비행경로 설정모듈
230: 촬영영상 입력모듈
240: 정규화 수행모듈
250: 기하보정 수행모듈
260: 영상정합 수행모듈
261: 적분영상 연산모듈
262: 대응점 확인모듈
270: 초분광영상 출력모듈
300: 영상분석부
310: 초분광 관측값 입력모듈
320: 밴드비 연산모듈
330: 회귀분석모듈
340: 회귀식 결정모듈
350: 관측값 추정모듈
360: 지형 결정 모듈
370: 표고 산정 모듈
380: 하상 변동속도 연산 모듈
400: 데이터베이스부
100: unmanned aerial vehicle
101: echo sounder
110: gimbal
120: buffer
130: camera
140: hyperspectral sensor
150: communication department
200: image processing unit
210: communication module
220: flight path setting module
230: captured image input module
240: regularization performing module
250: geometric correction performing module
260: image registration performing module
261: integral image operation module
262: correspondence point confirmation module
270: hyperspectral image output module
300: image analysis unit
310: hyperspectral observation value input module
320: band ratio calculation module
330: regression analysis module
340: regression expression determination module
350: observation value estimation module
360: Terrain Determination Module
370: Elevation Estimation Module
380: lower phase variable speed calculation module
400: database unit

Claims (15)

(a) 무인비행체(100)가, 설정된 비행경로를 따라 비행하면서, 초분광 센서(140)를 이용하여, 라인 스캐닝(line scanning)을 통해, 기 설정된 영상 단위마다 초분광정보를 획득하는 단계;
(b) 기하보정 수행모듈(250)이, 상기 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정을 수행하는 단계;
(c) 영상정합 수행모듈(260)이, 상기 기하보정이 수행된, 상기 각각의 영상 단위마다 획득된 초분광정보를 정합하여, 상기 수집영역의 초분광영상을 획득하는 단계;
(d) 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력되는 단계;
(e) 밴드비 연산모듈(320)이, 상기 미리 결정된 다수의 지점 각각에서, 상기 (c) 단계에서 획득된 초분광영상으로부터 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))을 확인하고, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하여, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인하는 단계;
(f) 상기 밴드비 연산모듈(320)이, 상기 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(band ratio)(X)를 연산하는 단계; 및
(g) 회귀분석모듈(330)이, 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 상기 다수의 지점에서의 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)를 이용하여, 회귀식(Y=aX+b)의 a와 b를 연산함으로써, 회귀식(Y=aX+b)을 생성하는 단계를 포함하며,
(h) 관측값 추정모듈(350)이 상기 (g) 단계에서 생성된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 단계; 및
(m) 하상 변동속도 연산 모듈(380)이 상기 (h) 단계에서 추정된 수심을 이용하여 미리 설정된 방법에 따라 하상 변동속도를 연산하는 단계;를 포함하고,
상기 (m)단계는,
(m1) 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계;
(m2) 지형 결정 모듈(360)이, 상기 연산된 정규식생지수(NDWI)가 0 이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정하는 단계;
(m3) 표고 산정 모듈(370)이, 상기 지형 결정 모듈(360)에서 결정된 지형 중 상기 수체 구역의 외각선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 위치에 상응하는 표고를 활용하여 수면의 표고로 산정하는 단계;
(m4) 상기 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)를 산정하는 단계;
(m5) 상기 하상 변동속도 연산 모듈(380)이 시간 변화량 δt 동안 상기 (m4) 단계에서 산정된 하상표고의 변동이 0인 것으로 가정하여, 아래의 수식을 통해 하상 변동속도를 연산하는 단계;를 포함하는,
Figure pat00026
,
Figure pat00027

하상 변동속도 측정 방법.
(a) the unmanned aerial vehicle 100, while flying along a set flight path, using the hyperspectral sensor 140 to obtain hyperspectral information for each preset image unit through line scanning;
(b) performing, by the geometric correction performing module 250, geometric correction on the hyperspectral information obtained for each image unit by using the position information of each pixel;
(c) acquiring, by the image matching performing module 260, the hyperspectral image of the collection area by matching the hyperspectral information obtained for each image unit on which the geometric correction is performed;
(d) inputting a depth observation value (Y) of each of a plurality of predetermined points to the hyperspectral observation value input module 310;
(e) the band ratio calculation module 320, at each of the plurality of predetermined points, from the hyperspectral image obtained in step (c), a hyperspectral imaging value (I) that is a pixel value for a plurality of wavelengths (x) (x)), select a pair (λ 1 , λ 2 ) of any two wavelengths among a plurality of wavelengths (x) included in the hyperspectral imaging value, and select the hyperspectral imaging value (I( determining λ 1 ), I(λ 2 ));
(f) the band ratio calculation module 320 divides any one of the two identified hyperspectral imaging values (I(λ 1 ), I(λ 2 )) by the other to obtain a band ratio (X) ) to calculate; and
(g) the regression analysis module 330, assuming that the depth observation value (Y) and the calculated band ratio (X) have a linear relationship, and the depth observation value (Y) at the plurality of points Using the calculated band ratio (X), by calculating a and b of the regression equation (Y = aX + b), comprising the step of generating a regression equation (Y = aX + b),
(h) estimating, by the observation value estimation module 350, the depth of the water from the hyperspectral image using the regression equation generated in the step (g); and
(m) calculating, by the river bed fluctuation rate calculation module 380, the river bed fluctuation rate according to a preset method using the water depth estimated in step (h);
The step (m) is,
(m1) calculating, by the observation value estimation module 350, a normal vegetation index (NDWI) using the intensity of light with respect to a wavelength corresponding to near infrared in the hyperspectral image;
(m2) determining, by the terrain determination module 360, a waterbody zone when the calculated regular vegetation index (NDWI) is greater than or equal to 0, and determined as a river sub-region when it is less than 0 to determine each terrain;
(m3) The elevation calculation module 370 calculates the elevation corresponding to the location by using the location information of each pixel of a plurality of points constituting the outer line of the water body area among the topography determined by the topography determination module 360 estimating as the elevation of the water surface by utilizing;
(m4) calculating, by the elevation calculation module 370, the river elevation E(x,y,t) by subtracting the estimated water depth from the calculated elevation of the water surface;
(m5) assuming that the change in the river bed elevation calculated in step (m4) is 0 during the time change amount δt by the river bed fluctuation rate calculation module 380, calculating the river bed fluctuation rate through the following formula; containing,
Figure pat00026
,
Figure pat00027

Method of measuring river bed fluctuation rate.
제1항에 있어서,
상기 (m5) 단계는,
아래의 수식을 통해 하상 변동속도를 연산하는 단계를 포함하는,
Figure pat00028

여기서,
Figure pat00029
이며,
qn은 수체 구역 내 임의의 지점인,
하상 변동속도 측정 방법.
According to claim 1,
The step (m5) is,
Including the step of calculating the rate of change of the river bed through the formula below,
Figure pat00028

here,
Figure pat00029
is,
q n is any point in the waterbody zone,
Method of measuring river bed fluctuation rate.
제1항에 있어서,
상기 (m3) 단계 이후, 상기 (m4) 단계 이전,
상기 표고 산정 모듈(370)이, 데이터베이스부(400)에서 상기(m2) 단계에서 결정된 하천 제내지 구역에 상응하는 구역의 표고 정보를 수집하는 단계;를 더 포함하며, 상기 (m5) 단계는, 상기 하천 제내지 구역에 대한 하상 변동속도를 연산하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
According to claim 1,
After step (m3), before step (m4),
The step of the elevation calculation module 370, the database unit 400 collecting the elevation information of the area corresponding to the river sub-region determined in the step (m2); further comprising, the step (m5), Further comprising the step of calculating the river bed fluctuation rate for the river sub-region,
Method of measuring river bed fluctuation rate.
제 1 항에 있어서,
상기 (g) 단계 이후,
(h) 상기 회귀분석모듈(330)이, 상기 초분광 촬영값에 포함된 상기 다수의 파장 중 상기 (e) 단계에서의 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, 상기 (f) 내지 (g) 단계를 반복함으로써, 다수의 2개의 파장의 쌍마다 각각 회귀식을 생성하는 단계;
(i) 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식 중 상관계수(correlation)가 가장 높은 회귀식을 선택하는 단계;
(j) 상기 회귀식 결정모듈(340)이, 상기 (g) 단계에서 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정하는 단계를 더 포함하며,
상기 선택된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는,
하상 변동속도 측정 방법.
The method of claim 1,
After step (g),
(h) the regression analysis module 330 selects an arbitrary wavelength other than the pair of two wavelengths in step (e) from among the plurality of wavelengths included in the hyperspectral imaging value, generating a regression equation for each of a plurality of pairs of two wavelengths by verifying a spectroscopic image and repeating steps (f) to (g);
(i) selecting, by the regression equation determination module 340, a regression equation having the highest correlation coefficient among the generated plurality of regression equations;
(j) determining, by the regression equation determination module 340, the two wavelengths applied to the band ratio (X) used in the regression equation selected in the step (g) as a pair of optimal band ratio wavelengths; and
Estimating the water depth from the hyperspectral image using the selected regression equation,
Method of measuring river bed fluctuation rate.
제 4 항에 있어서,
상기 (j) 단계 이후,
(k) 관측값 추정모듈(350)이, 상기 다수의 지점 이외의 지점의 초분광 촬영값에서, 상기 (j) 단계에서 결정된 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하고, 어느 하나를 다른 하나로 나누어 해당 지점의 밴드비를 연산하는 단계; 및
(l) 상기 관측값 추정모듈(350)이, 상기 (g) 단계에서 선택된 회귀식에 상기 연산된 밴드비를 입력하여 해당 지점의 수심 관측값을 추정하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
5. The method of claim 4,
After step (j),
(k) the observation value estimation module 350 identifies two hyperspectral imaging values corresponding to the pair of optimal band ratio wavelengths determined in step (j) from the hyperspectral imaging values of points other than the plurality of points and dividing one by another to calculate a band ratio of the corresponding point; and
(l) the observation value estimating module 350, inputting the calculated band ratio into the regression equation selected in the step (g), further comprising the step of estimating the observation value of the depth of the point,
Method of measuring river bed fluctuation rate.
제 5 항에 있어서,
상기 (l) 단계는,
상기 관측값 추정모듈(350)이 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; 및
상기 관측값 추정모듈(350)이 상기 연산된 정규식생지수(NDWI)가 0보다 작은 경우 수심을 0으로 출력하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
6. The method of claim 5,
The step (l) is,
calculating, by the observation value estimation module 350, a normal expression index (NDWI) using the intensity of light for a wavelength corresponding to near infrared in the hyperspectral image; and
The method further comprising the step of outputting, by the observation value estimation module 350, the depth of water as 0 when the calculated regular vegetation index (NDWI) is less than 0,
Method of measuring river bed fluctuation rate.
제 6 항에 있어서,
상기 정규식생지수(NDWI)는 아래의 수식으로 연산되며,
Figure pat00030

여기에서, NIR은 상기 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 상기 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기인,
하상 변동속도 측정 방법.
7. The method of claim 6,
The regular expression index (NDWI) is calculated by the following formula,
Figure pat00030

Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information, and Green is the intensity of light at a wavelength corresponding to green among the values included in the hyperspectral information,
Method of measuring river bed fluctuation rate.
제 5 항에 있어서,
상기 (i) 단계는,
상기 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식에 대한 상관계수를 연산하여, 2개의 파장의 쌍에서 각각의 파장을 X축 및 Y축으로 하는 상관계수 맵을 생성하는 단계를 포함하고,
상기 (i) 단계는,
상기 회귀식 결정모듈(340)이, 상기 (i) 단계에서 생성된 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하는 단계를 포함하는,
하상 변동속도 측정 방법.
6. The method of claim 5,
Step (i) is,
generating, by the regression equation determination module 340, correlation coefficients for the generated plurality of regression equations, and generating a correlation coefficient map in which each wavelength is an X-axis and a Y-axis in a pair of two wavelengths; including,
Step (i) is,
The regression formula determination module 340 determines a point having the highest correlation coefficient using the correlation coefficient map generated in step (i), and sets each wavelength constituting the point to the pair of optimal band ratio wavelengths. comprising the step of determining
Method of measuring river bed fluctuation rate.
제 1 항에 있어서,
상기 (c) 단계는,
(c11) 대응점 확인 모듈(262)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산하되, 상기 어느 하나의 초분광정보(A)의 모든 픽셀 각각에 대하여 상기 다른 하나의 초분광정보(B)의 모든 픽셀 각각의 정규상관계수를 모두 연산함으로써, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하는 단계;
(c12) 상기 영상정합 수행모듈(260)이 상기 확인된 대응점을 기준으로 상기 두 개의 초분광정보(A, B)를 영상 정합하는 단계; 및
(c13) 상기 영상정합 수행모듈(260)이 상기 (c11) 내지 (c12) 단계를, 상기 (a) 단계에서 획득된 각각의 영상 단위마다의 초분광정보의 각 쌍마다 수행하여, 영상정합된 상기 수집영역의 초분광영상을 획득하는 단계를 포함하는,
하상 변동속도 측정 방법.
The method of claim 1,
The step (c) is,
(c11) In any two hyperspectral information (A, B) obtained by the corresponding point confirmation module 262 for each image unit on which the geometric correction is performed, any one of the hyperspectral information (A) With respect to the XY coordinates (x, y) of the pixel and the pixel value (I(x, y)) at the corresponding coordinates, the XY coordinates (x', y) of any one pixel of the other hyperspectral information (B) ') and a normalized correlation coefficient of the pixel value I(x', y') at the corresponding coordinates, but for each pixel of the one hyperspectral information A, the other checking the XY coordinates of a point having a large value of the normal correlation coefficient as a corresponding point of the two hyperspectral information (A, B) by calculating all the normal correlation coefficients of each pixel of the hyperspectral information (B);
(c12) image registration of the two hyperspectral information (A, B) based on the identified corresponding point by the image matching performing module 260; and
(c13) the image registration performing module 260 performs the steps (c11) to (c12) for each pair of hyperspectral information for each image unit obtained in the step (a), Comprising the step of obtaining a hyperspectral image of the collection area,
Method of measuring river bed fluctuation rate.
제 9 항에 있어서,
상기 (c11) 단계 이전에,
(c21) 적분영상 연산모듈(261)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 초분광정보에서, 각각의 픽셀마다, 어느 하나의 기준 좌표를 기준으로 하여 적분영상(integral image) 화소값을 연산하는 단계를 더 포함하며,
상기 (c11) 단계에서의 화소값은, 상기 (c21) 단계에서 연산된 적분영상 화소값인,
하상 변동속도 측정 방법.
10. The method of claim 9,
Before step (c11),
(c21) the integral image operation module 261, in the hyperspectral information obtained for each image unit on which the geometric correction is performed, for each pixel, an integral image based on any one reference coordinate Further comprising the step of calculating the pixel value,
The pixel value in step (c11) is the pixel value of the integral image calculated in step (c21),
Method of measuring river bed fluctuation rate.
제 10 항에 있어서,
상기 (c21) 단계 이전에,
(c31) 정규화 모듈(240)이, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
11. The method of claim 10,
Before step (c21),
(c31) the normalization module 240 sets the XY coordinates of the pixels of the hyperspectral information of any one image unit as an ordered pair of integers (x, y), calculates the average coordinates of the set XY coordinates, and the operation The XY coordinates (x, y) are normalized to the XY coordinates (x', y) so that the unit distance between the ordered pairs (x, y) of each integer is √2 by setting the average coordinates as the origin (0, 0). '), further comprising the step of normalizing the hyperspectral information of any one image unit by moving to,
Method of measuring river bed fluctuation rate.
제 11 항에 있어서,
상기 (c31) 단계 이후,
(c32) 상기 정규화 모듈(240)이 상기 어느 하나의 초분광정보의 정규화 전 XY 좌표(x, y)와 정규화된 이후의 XY 좌표(x', y')의 값을 이용하여, 매개변수를 포함한 행렬식인 호모그래피(homography)(H)를 연산하는 단계; 및
(c33) 상기 연산된 호모그래피(H)를 이용하여, 다른 하나의 초분광정보를 정규화하는 단계를 포함하는,
하상 변동속도 측정 방법.
12. The method of claim 11,
After step (c31),
(c32) the normalization module 240 uses the values of the XY coordinates (x, y) before the normalization of any one of the hyperspectral information and the XY coordinates (x', y') after the normalization, calculating a homography (H) which is a determinant including; and
(c33) using the calculated homography (H), comprising the step of normalizing another hyperspectral information,
Method of measuring river bed fluctuation rate.
제 12 항에 있어서,
상기 (c32) 단계에서 동차좌표계(homogeneous coordinates)가 활용되어 정규화 전 XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭되며, 다음의 수식을 이용하되 다수의 XY 좌표를 활용하여, 호모그래피(H)가 연산되며,
Figure pat00031

상기 (c33) 단계는, 다른 하나의 초분광정보를 행렬식 A에 대입하여, 정규화된 XY 좌표인 행렬식 A'가 연산되는,
하상 변동속도 측정 방법.
13. The method of claim 12,
In step (c32), homogeneous coordinates are used so that the XY coordinates before normalization are (x, y, 1) and are referred to as determinant A, and the XY coordinates after normalization are (x', y', 1) It is referred to as the determinant A', and the homography (H) is calculated using the following formula but using a number of XY coordinates,
Figure pat00031

In the step (c33), the determinant A', which is the normalized XY coordinates, is calculated by substituting another hyperspectral information into the determinant A,
Method of measuring river bed fluctuation rate.
컴퓨터 판독 가능한 기록 매체에 저장되어
제 1 항 내지 제 13 항 중 어느 한 항에 따른 방법을 실행시키는 프로그램.
stored on a computer-readable recording medium.
14. A program for executing a method according to any one of claims 1 to 13.
제 1 항 내지 제 13 항 중 어느 한 항에 따른 방법을 실행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능한 기록 매체.
14. A computer-readable recording medium on which a program code for executing the method according to any one of claims 1 to 13 is recorded.
KR1020200019871A 2020-02-18 2020-02-18 Method for estimation of river bed change rate using hyperspectral image KR102313438B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200019871A KR102313438B1 (en) 2020-02-18 2020-02-18 Method for estimation of river bed change rate using hyperspectral image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200019871A KR102313438B1 (en) 2020-02-18 2020-02-18 Method for estimation of river bed change rate using hyperspectral image

Publications (2)

Publication Number Publication Date
KR20210105487A true KR20210105487A (en) 2021-08-27
KR102313438B1 KR102313438B1 (en) 2021-10-18

Family

ID=77504705

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019871A KR102313438B1 (en) 2020-02-18 2020-02-18 Method for estimation of river bed change rate using hyperspectral image

Country Status (1)

Country Link
KR (1) KR102313438B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114112906A (en) * 2021-10-12 2022-03-01 中通服咨询设计研究院有限公司 Water body feature extraction system based on unmanned aerial vehicle low-altitude remote sensing and local topography
CN114396921A (en) * 2021-11-15 2022-04-26 中国计量大学 Qiantanjiang river tidal bore height and propagation speed measuring method based on unmanned aerial vehicle
CN114677324A (en) * 2022-01-20 2022-06-28 强企创新科技有限公司 Water depth detection method and system
CN116309783A (en) * 2023-05-22 2023-06-23 山东锋士信息技术有限公司 River channel compound section water level observation method based on remote sensing data

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181055B2 (en) 2003-08-15 2007-02-20 Holger Lange Systems and methods for registering reflectance and fluorescence hyperspectral imagery
KR20140014819A (en) 2012-07-26 2014-02-06 인하대학교 산학협력단 Target detection method of hyperspectral image by indexing and querying based on pyramid-technique
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof
KR101463351B1 (en) 2013-09-02 2014-11-19 주식회사 포스코 Shock absorbing unit for winding drum and mandrel coil box using the same
KR101619836B1 (en) 2016-02-05 2016-05-11 (주)아세아항측 Hyperspectral Remote monitoring system using drone
KR101621354B1 (en) 2016-03-31 2016-05-20 주식회사 지오스토리 Water column correction using airborne hyperspectral image
KR101672291B1 (en) * 2016-03-31 2016-11-08 주식회사 지오스토리 Water column correction using airborne hyperspectral image
KR101689197B1 (en) 2016-06-20 2016-12-23 주식회사 엠지아이티 Gimbal assembly for drone
KR101744662B1 (en) 2016-11-30 2017-06-09 주식회사 지오스토리 System for classifying halophytes using hyper-spectral imaging
KR101806488B1 (en) 2017-02-20 2017-12-07 한국지질자원연구원 Detection methods of ore body containing chrome using drone equipped hyperspectral images sensor
KR101963604B1 (en) 2018-09-21 2019-03-29 한국지질자원연구원 Submarine wide area orthophoto imaging device including hyperspectroscopic camera
KR101936586B1 (en) 2017-11-08 2019-04-09 한국건설기술연구원 System for mapping river water-bloom map using data for detecting by gps-based random sampling, and method for the same
KR102073394B1 (en) * 2018-11-16 2020-02-04 대한민국 Method for Quantification Detection Harmful Blue Green Algae In Inland Waters Using Hyperspectral Information

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181055B2 (en) 2003-08-15 2007-02-20 Holger Lange Systems and methods for registering reflectance and fluorescence hyperspectral imagery
KR20140014819A (en) 2012-07-26 2014-02-06 인하대학교 산학협력단 Target detection method of hyperspectral image by indexing and querying based on pyramid-technique
KR101463351B1 (en) 2013-09-02 2014-11-19 주식회사 포스코 Shock absorbing unit for winding drum and mandrel coil box using the same
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof
KR101619836B1 (en) 2016-02-05 2016-05-11 (주)아세아항측 Hyperspectral Remote monitoring system using drone
KR101672291B1 (en) * 2016-03-31 2016-11-08 주식회사 지오스토리 Water column correction using airborne hyperspectral image
KR101621354B1 (en) 2016-03-31 2016-05-20 주식회사 지오스토리 Water column correction using airborne hyperspectral image
KR101689197B1 (en) 2016-06-20 2016-12-23 주식회사 엠지아이티 Gimbal assembly for drone
KR101744662B1 (en) 2016-11-30 2017-06-09 주식회사 지오스토리 System for classifying halophytes using hyper-spectral imaging
KR101806488B1 (en) 2017-02-20 2017-12-07 한국지질자원연구원 Detection methods of ore body containing chrome using drone equipped hyperspectral images sensor
KR101936586B1 (en) 2017-11-08 2019-04-09 한국건설기술연구원 System for mapping river water-bloom map using data for detecting by gps-based random sampling, and method for the same
KR101963604B1 (en) 2018-09-21 2019-03-29 한국지질자원연구원 Submarine wide area orthophoto imaging device including hyperspectroscopic camera
KR102073394B1 (en) * 2018-11-16 2020-02-04 대한민국 Method for Quantification Detection Harmful Blue Green Algae In Inland Waters Using Hyperspectral Information

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114112906A (en) * 2021-10-12 2022-03-01 中通服咨询设计研究院有限公司 Water body feature extraction system based on unmanned aerial vehicle low-altitude remote sensing and local topography
CN114112906B (en) * 2021-10-12 2023-11-17 中通服咨询设计研究院有限公司 Water body feature extraction system based on unmanned aerial vehicle low altitude remote sensing and local topography
CN114396921A (en) * 2021-11-15 2022-04-26 中国计量大学 Qiantanjiang river tidal bore height and propagation speed measuring method based on unmanned aerial vehicle
CN114396921B (en) * 2021-11-15 2023-12-08 中国计量大学 Method for measuring tidal height and propagation speed of Yangtze river on basis of unmanned aerial vehicle
CN114677324A (en) * 2022-01-20 2022-06-28 强企创新科技有限公司 Water depth detection method and system
CN116309783A (en) * 2023-05-22 2023-06-23 山东锋士信息技术有限公司 River channel compound section water level observation method based on remote sensing data
CN116309783B (en) * 2023-05-22 2023-08-29 山东锋士信息技术有限公司 River channel compound section water level observation method based on remote sensing data

Also Published As

Publication number Publication date
KR102313438B1 (en) 2021-10-18

Similar Documents

Publication Publication Date Title
KR102313438B1 (en) Method for estimation of river bed change rate using hyperspectral image
KR101489984B1 (en) A stereo-image registration and change detection system and method
US9798928B2 (en) System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
US8737720B2 (en) System and method for detecting and analyzing features in an agricultural field
CN108692719B (en) Object detection device
CN106485655A (en) A kind of taken photo by plane map generation system and method based on quadrotor
KR102169687B1 (en) Method for acquisition of hyperspectral image using an unmanned aerial vehicle
Kunz et al. Map building fusing acoustic and visual information using autonomous underwater vehicles
CN108537885B (en) Method for acquiring three-dimensional topographic data of mountain wound surface
JP2019503484A (en) Method and system for geometric referencing of multispectral data
CN107560603A (en) A kind of unmanned plane oblique photograph measuring system and measuring method
JP6858415B2 (en) Sea level measurement system, sea level measurement method and sea level measurement program
KR102313437B1 (en) Method for estimation of bathymetry using hyperspectral image
CN115359130B (en) Radar and camera combined calibration method and device, electronic equipment and storage medium
Ribera et al. Estimating phenotypic traits from UAV based RGB imagery
JP7069609B2 (en) Crop cultivation support device
KR102164522B1 (en) Method for estimation of depth of water using hyperspectral image
JP3874363B1 (en) Position rating device, position rating method, and position rating program
US10453178B2 (en) Large scale image mosaic construction for agricultural applications
Becirevic et al. On the derivation of crop heights from multitemporal UAV based imagery
Thoeni et al. Use of low-cost terrestrial and aerial imaging sensors for geotechnical applications
Khezrabad et al. A new approach for geometric correction of UAV-based pushbroom images through the processing of simultaneously acquired frame images
WO2022173285A1 (en) Determining deformations of quay walls using a photogrammetric system
Schwind Comparing and characterizing three-dimensional point clouds derived by structure from motion photogrammetry
Berveglieri et al. Bundle adjustment of a time-sequential spectral camera using polynomial models

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right