KR20210105487A - Method for estimation of river bed change rate using hyperspectral image - Google Patents
Method for estimation of river bed change rate using hyperspectral image Download PDFInfo
- Publication number
- KR20210105487A KR20210105487A KR1020200019871A KR20200019871A KR20210105487A KR 20210105487 A KR20210105487 A KR 20210105487A KR 1020200019871 A KR1020200019871 A KR 1020200019871A KR 20200019871 A KR20200019871 A KR 20200019871A KR 20210105487 A KR20210105487 A KR 20210105487A
- Authority
- KR
- South Korea
- Prior art keywords
- hyperspectral
- image
- module
- information
- coordinates
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 121
- 230000008859 change Effects 0.000 title claims description 22
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 107
- 238000004364 calculation method Methods 0.000 claims description 46
- 238000010606 normalization Methods 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 22
- 238000000701 chemical imaging Methods 0.000 claims description 21
- 238000012876 topography Methods 0.000 claims description 19
- 238000000611 regression analysis Methods 0.000 claims description 13
- 230000014509 gene expression Effects 0.000 claims description 10
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 12
- 238000002604 ultrasonography Methods 0.000 description 12
- 238000003672 processing method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000003703 image analysis method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000035939 shock Effects 0.000 description 4
- 239000006096 absorbing agent Substances 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C13/00—Surveying specially adapted to open water, e.g. sea, lake, river or canal
- G01C13/008—Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/36—Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C13/00—Surveying specially adapted to open water, e.g. sea, lake, river or canal
- G01C13/002—Measuring the movement of open water
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Abstract
Description
본 발명은 초분광영상을 이용하여 하상 변동속도를 측정하는 방법에 관한 것으로, 구체적으로 무인비행체를 이용하여 초분광영상을 획득한 후, 밴드비를 활용하여 회귀식을 설정함으로써, 초분광영상만으로 높은 정확도로 수심을 추정하고, 하상 표고의 2차원 공간적 분포를 계측하고, 이를 기반으로 한 하상 변동속도를 측정할 수 있는 방법에 관한 것이다. The present invention relates to a method of measuring the rate of change of bed phase using a hyperspectral image. Specifically, after acquiring a hyperspectral image using an unmanned aerial vehicle, a regression equation is set using a band ratio, so that only a hyperspectral image is used. It relates to a method for estimating water depth with high accuracy, measuring the two-dimensional spatial distribution of river bed elevation, and measuring the river bed fluctuation rate based on this.
물 밖의 정보는 다양한 이미지 장비를 이용하여 3차원 모델링이 비교적 손쉽게 가능하지만, 물 안의 정보, 특히 넓은 범위의 수체 내 수심을 반영한 3차원 모델링은 매우 어려운 작업이다. Although 3D modeling of information outside the water is relatively easy using various image equipment, 3D modeling that reflects information in water, especially the depth of water in a wide range of water bodies, is a very difficult task.
수심을 측정하는 가장 일반적인 방법은 초음파(ultrasound)를 활용하는 것이다. 하지만, 이 방법은 장애물로 인한 반사 등의 다양한 외부 요인으로 정밀도가 낮고 저수심에서는 불가능하다. 저수심에서는 사람이 직접 잠수하거나 줄자를 이용한 실측 방법이 주로 사용된다. 이 경우에도, 넓은 범위를 빠짐없이 측정하는 것은 현실적으로 불가능하다. The most common method of measuring water depth is to use ultrasound. However, this method has low precision due to various external factors, such as reflections from obstacles, and is impossible at low water depth. In the low water depth, a person dives directly or a measurement method using a tape measure is mainly used. Even in this case, it is practically impossible to measure a wide range without omission.
이에 대한 대안으로, 수심을 측정하기 위해, 수체에 대한 초분광영상을 확보하여 이를 이용하는 방법이 거론되고 있다. 초분광 센서(hyperspectral sensor)를 사용할 경우, 가시광영역은 물론 자외선영역, 적외선영역을 포함하여, 일반적인 이미지 센서에서 촬영하는 것에 대비하여 수백배에 이르는 많은 정보를 확보할 수 있기 때문이다.As an alternative to this, in order to measure the depth of the water, a method of obtaining a hyperspectral image of the water body and using the obtained hyperspectral image is being discussed. This is because, when a hyperspectral sensor is used, it is possible to secure hundreds of times more information than that of a general image sensor, including not only the visible region but also the ultraviolet region and the infrared region.
초분광정보를 이용하여 수심을 확인하기 위해, 실재의 파장별 밴드가 무엇을 의미하는지를 매칭시킨 데이터베이스가 필요하다. 예를 들어, 2010년에 발사된 천리안 해양관측 위성(Goestationary Ocean Color Imager, GOGI)에 의해여, 8개 밴드(412, 490, 512, 555, 660, 680, 765, 875nm)의 값을 알 경우, 각각의 값이 어떠한 해색(海色)을 의미하는지 여부에 대한 데이터베이스는 이미 확보되어 있는 상태이다. 따라서, 해양의 초분광영상을 촬영함으로써 지점별 초분광정보가 확인되면, 데이터베이스로부터 해당 파장에서의 값과 이에 매칭된 해색을 확인함으로써, 초분광영상만으로도 직접 관측 없이 해색을 추정하게 된다. 동일한 방법이 수심에 적용될 수 있는 것이다. In order to check the depth of the water using hyperspectral information, a database matching what the actual bands for each wavelength means is needed. For example, if the values of 8 bands (412, 490, 512, 555, 660, 680, 765, 875 nm) are known by the Goestationary Ocean Color Imager (GOGI) launched in 2010 , a database on whether each value means what kind of sea color is already secured. Therefore, when hyperspectral information for each point is confirmed by taking a hyperspectral image of the ocean, the sea color is estimated without direct observation using only the hyperspectral image by checking the value at the corresponding wavelength and the sea color matching it from the database. The same method can be applied to water depth.
또한, 모든 지점에서의 파장별 관측값을 확인하고 데이터베이스화할 수 없기에, 회귀식이 사용된다. 즉, 다수의 데이터를 이용하여 회귀식을 구축하여 두면, 데이터베이스화되어 있지 않은 위치에서도, 회귀식을 이용하여, 초분광영상에서 확인되는 파장별 밴드를 이용하여 실재의 값을 추정할 수 있다. In addition, since it is not possible to verify and database the observation values for each wavelength at all points, a regression equation is used. That is, if a regression equation is constructed using a large number of data, the actual value can be estimated using the band for each wavelength identified in the hyperspectral image by using the regression equation even at a location that is not in a database.
이러한 방법들을 조합하면, 이론적으로 초분광영상만으로 수심의 추정이 가능하다. 초분광영상으로부터 특정 파장에 대한 값을 추출하면, 해당 값과 수심이 미리 매칭되어 저장된 데이터베이스을 이용하거나 회귀식에 대입함으로써, 수심을 추정할 수 있다. By combining these methods, it is theoretically possible to estimate the depth of water only with hyperspectral images. When a value for a specific wavelength is extracted from the hyperspectral image, the water depth can be estimated by using a database stored in which the corresponding value and the water depth are matched in advance or by substituting it into a regression equation.
하지만, 이러한 방식으로 특정 파장의 촬영값을 이용하여 수심을 추정하는 방식은 일정 수준의 오차가 있는 것으로 알려져 있다. 이러한 오차의 원인으로서, 초분광정보 촬영 단계에서 발생하는 오차(예를 들어, 반사광의 영향으로 촬영값이 실재 위치의 값을 대변하지 못하는 상황), 영상 수정 단계에서 발생하는 오차(예를 들어, 기하 보정의 오류, 영상 정합의 오류 등), 데이터베이스의 오류(예를 들어, 촬영값은 정확하였지만 식별 정보가 잘못된 경우), 기타 외부요인 등이 제시된다. However, it is known that there is a certain level of error in the method of estimating the depth of water using the photographing value of a specific wavelength in this way. As the causes of such errors, errors occurring in the hyperspectral information capturing step (for example, a situation in which the captured value does not represent the actual location value due to the influence of reflected light), and errors occurring in the image correction step (e.g., Errors in geometric correction, errors in image registration, etc.), errors in the database (eg, when the photographing value is correct but identification information is incorrect), and other external factors are suggested.
더욱이, 정확도가 낮은 값을 이용하여 구축한 회귀식을 통해 수심을 추정할 경우, 이러한 오차는 점차 커지게 된다.Moreover, when estimating the water depth through a regression equation constructed using a low-accuracy value, this error gradually increases.
또한, 넓은 영역의 초분광영상 확보에도 어려움이 있다.In addition, it is difficult to secure a hyperspectral image of a wide area.
넓은 영역의 초분광영상 확보를 위하여 유인비행체, 인공위성 등에서 촬영을 하는 것이 일반적인데, 이 경우 셀 사이즈가 10m 내지 50m 등으로 과다하게 커져서 정밀한 계측이 불가능하다. 예를 들어, 수심을 측정할 경우 지표에서 100m2 단위로 측정되기에 정밀도가 감소하는 것이다. In order to secure a wide area of hyperspectral images, it is common to take pictures from a manned vehicle or an artificial satellite. For example, when measuring water depth, precision is reduced because it is measured in units of 100 m 2 on the surface.
이를 해소하기 위하여 근거리에서 비행할 수 있는 드론과 같은 무인비행체에 초분광 센서를 탑재하는 시도가 있었다. 이 경우, 셀 사이즈가 작아져서 정밀도는 상승하나, 무인비행체가 갖고 있는 비행 중 흔들림 등의 문제로 정확도가 낮아지는 다른 문제가 발생하였다. 이를 방지하고자, 흔들림을 보정할 수 있는 고성능 짐벌의 탑재를 고려할 수 있지만, 고성능 짐벌의 무게가 상당히 크기에 드론의 비행 성능을 약화시켰다. In order to solve this problem, attempts have been made to mount a hyperspectral sensor on an unmanned aerial vehicle such as a drone that can fly at a short distance. In this case, although the cell size is reduced and the accuracy is increased, another problem occurred in that the accuracy was lowered due to problems such as shaking during flight of the unmanned aerial vehicle. To prevent this, it is possible to consider mounting a high-performance gimbal that can compensate for shake, but the weight of the high-performance gimbal is quite large, which weakens the flight performance of the drone.
더욱이, 초분광 센서는 기본적으로 라인 스캐닝(line scanning)을 하여 초분광정보를 확보하기에, 다수의 초분광정보를 정합하는 소프트웨어가 필수적이다. 하지만, 기존의 초분광정보 정합 소프트웨어는 그 정확도가 부족하여, 다수의 초분광정보를 정합한 영상이 실재 촬영 지점에서 다소 벗어난 지점의 정보를 제공하기도 한다. Moreover, since the hyperspectral sensor basically performs line scanning to secure hyperspectral information, software for matching a plurality of hyperspectral information is essential. However, the existing hyperspectral information matching software lacks accuracy, and thus, an image obtained by matching a plurality of hyperspectral information may provide information on a point slightly deviated from the actual shooting point.
이에, 오차를 줄여서 정확도를 높일 수 있는 새로운 방식의 수심 식별 방법에 대한 요구가 증가하는 추세이나, 이러한 수심 아래의 속도 변화에 대하여는 알 수 없었다.Accordingly, the demand for a new type of depth identification method capable of increasing accuracy by reducing errors is on the rise, but the change in speed below the depth of the water has not been known.
관련된 특허 문헌을 검토한다. Review the relevant patent literature.
한국등록특허 제10-1621354호는 초분광영상을 이용한 수심 측정 방법을 개시한다. 전술한 문제점들이 모두 포함되어 있어, 정확도가 낮다. Korean Patent No. 10-1621354 discloses a method for measuring depth using hyperspectral images. All of the above problems are included, so the accuracy is low.
한국등록특허 제10-1463351호는 초분광영상에서 밴드비를 활용하여 특이영역을 검출하고, 초분광영상에서 검출된 영역을 제외함으로써 정보 연산의 속도를 상승시키는 기술을 개시한다. 후술하는 본 발명과 밴드비를 사용한다는 점만 공통될 뿐, 전체적인 발명의 목적, 구성 및 효과가 상이하다. Korean Patent Registration No. 10-1463351 discloses a technique for increasing the speed of information calculation by detecting a singular region using a band ratio in a hyperspectral image and excluding the detected region in a hyperspectral image. Only the point of using the band ratio and the present invention to be described below is common, but the overall purpose, configuration, and effect of the invention are different.
한국등록특허 제10-1619836호는 초분광영상 촬영을 위한 카메라를 짐벌과 완충장치를 이용한 드론을 개시한다. 드론의 흔들림을 보상한 영상이 확보된다는 점에서 장점이나, 라인 스캐닝에 의한 영상 정합 기술을 개시하지 못한다.Korean Patent No. 10-1619836 discloses a drone using a gimbal and a shock absorber as a camera for hyperspectral imaging. It has an advantage in that an image that compensates for the shake of the drone is secured, but cannot start an image matching technology by line scanning.
한국등록특허 제10-1806488호는 초분광영상 센서를 드론에 탑재하여 암체를 식별하는 기술을 개시한다. 한국등록특허 제10-1744662호는 초분광영상을 이용하여 식물을 분류하는 기술을 개시한다. 이를 위해, 다양한 암체 내지 식물에 대한 초분광영상 표준자료가 미리 확보되어 있어야 하며, 촬영된 영상을 이와 비교함으로써, 피촬영 오브젝트를 식별한다. 하지만, 드론의 흔들림으로 인한 정확도 저하 문제, 영상 정합의 효율성을 상승시키는 문제 등 촬영 단계에서 확인되는 원천적인 문제를 해결하지 못한다. Korean Patent Registration No. 10-1806488 discloses a technology for identifying a dark body by mounting a hyperspectral image sensor on a drone. Korean Patent No. 10-1744662 discloses a technology for classifying plants using hyperspectral images. To this end, hyperspectral image standard data for various dark bodies or plants must be secured in advance, and the photographed object is identified by comparing the photographed image thereto. However, it does not solve the fundamental problems identified during the shooting stage, such as a problem of decreasing accuracy due to the shaking of the drone, and a problem of increasing the efficiency of image matching.
한국등록특허 제10-1689197호는 드론에 부착될 수 있는 짐벌 어셈블리를 개시한다. 여기에 개시된 어셈블리는 회전/역회전이 가능한 제1유닛과, 승강이 가능한 제2유닛과, 이들을 회동시키는 제3유닛으로 구성되어, 비행체의 흔들림을 보상한다. 하지만, 이와 같이 구성될 경우, 짐벌의 무게가 과다하게 증가하여, 드론의 비행 성능이 낮아진다는 문제가 발생할 것이다.Korean Patent No. 10-1689197 discloses a gimbal assembly that can be attached to a drone. The assembly disclosed herein is composed of a first unit capable of rotation/reverse rotation, a second unit capable of lifting and lowering, and a third unit rotating them, thereby compensating for the shaking of the aircraft. However, when configured in this way, the weight of the gimbal is excessively increased, which will cause a problem that the flight performance of the drone is lowered.
한국공개특허 제10-2014-0014819호는 초분광영상에서 확인된 데이터에 대하여 색인/질의 기법을 적용함으로써, 마치 인공지능 알고리즘과 같은 형태로, 데이터를 식별하는 방법을 개시한다. 이러한 방법 활용의 전제조건은 초분광영상의 정확도인데, 무인비행체와 같은 환경에서 촬영된 영상의 정확도를 상승시키는 방법까지 제시하지 못한다. Korean Patent Application Laid-Open No. 10-2014-0014819 discloses a method of identifying data in the form of an artificial intelligence algorithm by applying an indexing/querying technique to data identified in a hyperspectral image. The prerequisite for using this method is the accuracy of hyperspectral images, but it cannot even suggest a method to increase the accuracy of images captured in an environment such as an unmanned aerial vehicle.
미국특허 제7,181,055호는 초분광영상을 정합하는 알고리즘을 제시한다. 여기에서는, 반사도 이미지를 활용하여 정합 정확도를 상승시킨다. US Patent No. 7,181,055 proposes an algorithm for registering hyperspectral images. Here, a reflectance image is used to increase the registration accuracy.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다. 특히, 초분광영상을 이용하여 수심을 추정하고자 하는 경우, 발생할 수 있는 다양한 문제점을 해결하고자 한다.The present invention has been devised to solve the above problems. In particular, in the case of estimating water depth using hyperspectral images, various problems that may occur are to be solved.
구체적으로, 라인 스캐닝되는 초분광 센서의 특성에 기인하여 영상 정합의 정확도가 낮아지는 문제를 해결하고, 무인비행체에서 촬영됨으로 인한 영상의 흔들림 문제를 해결하고자 한다. Specifically, it is intended to solve the problem that the accuracy of image registration is lowered due to the characteristics of the line-scanning hyperspectral sensor, and to solve the problem of shaking of the image due to shooting from an unmanned aerial vehicle.
또한, 정확한 초분광정보를 획득하여 특정 파장이 갖고 있는 촬영값이 정확함에도, 해당 촬영값에 대한 데이터베이스가 정확한 식별 정보를 반영하지 못하는 상황을 방지하기 위한, 신규한 초분광정보 식별 방법을 제안하고자 한다.In addition, to propose a novel hyperspectral information identification method to obtain accurate hyperspectral information and prevent a situation in which the database for the corresponding photographing value does not reflect accurate identification information even when the photographing value of a specific wavelength is accurate. do.
특히, 추정된 수심을 이용해 하상표고를 산출하고, 산출된 하상표고를 이용해 하상 변동속도를 측정할 수 있는 방법을 제안하고자 한다.In particular, we intend to propose a method for calculating the riverbed elevation using the estimated water depth and measuring the rate of change of the riverbed using the calculated riverbed elevation.
상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는(a) 무인비행체(100)가, 설정된 비행경로를 따라 비행하면서, 초분광 센서(140)를 이용하여, 라인 스캐닝(line scanning)을 통해, 기 설정된 영상 단위마다 초분광정보를 획득하는 단계; (b) 기하보정 수행모듈(250)이, 상기 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정을 수행하는 단계; (c) 영상정합 수행모듈(260)이, 상기 기하보정이 수행된, 상기 각각의 영상 단위마다 획득된 초분광정보를 정합하여, 상기 수집영역의 초분광영상을 획득하는 단계; (d) 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력되는 단계; (e) 밴드비 연산모듈(320)이, 상기 미리 결정된 다수의 지점 각각에서, 상기 (c) 단계에서 획득된 초분광영상으로부터 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))을 확인하고, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하여, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인하는 단계; (f) 상기 밴드비 연산모듈(320)이, 상기 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(band ratio)(X)를 연산하는 단계; 및 (g) 회귀분석모듈(330)이, 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 상기 다수의 지점에서의 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)를 이용하여, 회귀식(Y=aX+b)의 a와 b를 연산함으로써, 회귀식(Y=aX+b)을 생성하는 단계를 포함하며, (h) 관측값 추정모듈(350)이 상기 (g) 단계에서 생성된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 단계; 및 (m) 하상 변동속도 연산 모듈(380)이 상기 (h) 단계에서 추정된 수심을 이용하여 미리 설정된 방법에 따라 하상 변동속도를 연산하는 단계;를 포함하고, 상기 (m)단계는, (m1) 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; (m2) 지형 결정 모듈(360)이, 상기 연산된 정규식생지수(NDWI)가 0 이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정하는 단계; (m3) 표고 산정 모듈(370)이, 상기 지형 결정 모듈(360)에서 결정된 지형 중 상기 수체 구역의 외각선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 위치에 상응하는 표고를 활용하여 수면의 표고로 산정하는 단계; (m4) 상기 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)를 산정하는 단계; (m5) 상기 하상 변동속도 연산 모듈(380)이 시간 변화량 δt 동안 상기 (m4) 단계에서 산정된 하상표고의 변동이 0인 것으로 가정하여, 아래의 수식을 통해 하상 변동속도를 연산하는 단계;를 포함하는 , 하상 변동속도 측정 방법을 제공한다.One embodiment of the present invention for solving the above problems is (a) the unmanned
또한, 상기 (m5) 단계는, 아래의 수식을 통해 하상 변동속도를 연산하는 단계를 포함하는, 여기서, 이며, qn은 수체 구역 내 임의의 지점인 것이 바람직하다.In addition, the step (m5) comprises the step of calculating the rate of change of the lower phase through the following equation, here, , and q n is preferably any point in the waterbody zone.
또한, 상기 (m3) 단계 이후, 상기 (m4) 단계 이전, 상기 표고 산정 모듈(370)이, 데이터베이스부(400)에서 상기(m2) 단계에서 결정된 하천 제내지 구역에 상응하는 구역의 표고 정보를 수집하는 단계;를 더 포함하며, 상기 (m5) 단계는, 상기 하천 제내지 구역에 대한 하상 변동속도를 연산하는 단계를 더 포함하는 것이 바람직하다.In addition, after the (m3) step, before the (m4) step, the
또한, 상기 (g) 단계 이후, (h) 상기 회귀분석모듈(330)이, 상기 초분광 촬영값에 포함된 상기 다수의 파장 중 상기 (e) 단계에서의 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, 상기 (f) 내지 (g) 단계를 반복함으로써, 다수의 2개의 파장의 쌍마다 각각 회귀식을 생성하는 단계; (i) 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식 중 상관계수(correlation)가 가장 높은 회귀식을 선택하는 단계; (j) 상기 회귀식 결정모듈(340)이, 상기 (g) 단계에서 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정하는 단계를 더 포함하며, 상기 선택된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 것이 바람직하다.In addition, after step (g), (h) the
또한, 상기 (j) 단계 이후, (k) 관측값 추정모듈(350)이, 상기 다수의 지점 이외의 지점의 초분광 촬영값에서, 상기 (j) 단계에서 결정된 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하고, 어느 하나를 다른 하나로 나누어 해당 지점의 밴드비를 연산하는 단계; 및 (l) 상기 관측값 추정모듈(350)이, 상기 (g) 단계에서 선택된 회귀식에 상기 연산된 밴드비를 입력하여 해당 지점의 수심 관측값을 추정하는 단계를 더 포함하는 것이 바람직하다.In addition, after step (j), (k) the observation
또한, 상기 (l) 단계는, 상기 관측값 추정모듈(350)이 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; 및 상기 관측값 추정모듈(350)이 상기 연산된 정규식생지수(NDWI)가 0보다 작은 경우 수심을 0으로 출력하는 단계를 더 포함하는 것이 바람직하다.In addition, the step (l) may include: calculating, by the observation
또한, 상기 정규식생지수(NDWI)는 아래의 수식으로 연산되며, 여기에서, NIR은 상기 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 상기 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기인 것이 바람직하다.In addition, the regular expression index (NDWI) is calculated by the following formula, Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information, and Green is the intensity of light at a wavelength corresponding to green among the values included in the hyperspectral information. do.
또한, 상기 (i) 단계는, 상기 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식에 대한 상관계수를 연산하여, 2개의 파장의 쌍에서 각각의 파장을 X축 및 Y축으로 하는 상관계수 맵을 생성하는 단계를 포함하고, 상기 (i) 단계는, 상기 회귀식 결정모듈(340)이, 상기 (i) 단계에서 생성된 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하는 단계를 포함하는 것이 바람직하다.In addition, in step (i), the regression
또한, 상기 (c) 단계는, (c11) 대응점 확인 모듈(262)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산하되, 상기 어느 하나의 초분광정보(A)의 모든 픽셀 각각에 대하여 상기 다른 하나의 초분광정보(B)의 모든 픽셀 각각의 정규상관계수를 모두 연산함으로써, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하는 단계; (c12) 상기 영상정합 수행모듈(260)이 상기 확인된 대응점을 기준으로 상기 두 개의 초분광정보(A, B)를 영상 정합하는 단계; 및 (c13) 상기 영상정합 수행모듈(260)이 상기 (c11) 내지 (c12) 단계를, 상기 (a) 단계에서 획득된 각각의 영상 단위마다의 초분광정보의 각 쌍마다 수행하여, 영상정합된 상기 수집영역의 초분광영상을 획득하는 단계를 포함하는 것이 바람직하다.In addition, in step (c), (c11) the corresponding point checking module 262, in any two hyperspectral information (A, B) obtained for each image unit on which the geometric correction is performed, any one With respect to the XY coordinates (x, y) of any one pixel of the hyperspectral information A and the pixel value (I(x, y)) at the coordinates, any one of the other hyperspectral information B Calculate the normalized correlation of the XY coordinates (x', y') of the pixel and the pixel value (I(x', y')) at the corresponding coordinates, but any one of the hyperspectral information (A) By calculating all the normal correlation coefficients of each pixel of the other hyperspectral information (B) for each pixel of the two hyperspectral information (A, B) confirming the corresponding point; (c12) image registration of the two hyperspectral information (A, B) based on the identified corresponding point by the image matching performing module 260; and (c13) the image registration performing module 260 performs the steps (c11) to (c12) for each pair of hyperspectral information for each image unit obtained in the step (a), It is preferable to include the step of acquiring a hyperspectral image of the collected area.
또한, 상기 (c11) 단계 이전에, (c21) 적분영상 연산모듈(261)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 초분광정보에서, 각각의 픽셀마다, 어느 하나의 기준 좌표를 기준으로 하여 적분영상(integral image) 화소값을 연산하는 단계를 더 포함하며, 상기 (c11) 단계에서의 화소값은, 상기 (c21) 단계에서 연산된 적분영상 화소값인 것이 바람직하다.In addition, before step (c11), (c21) the integral
또한, 상기 (c21) 단계 이전에, (c31) 정규화 모듈(240)이, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화하는 단계를 더 포함하는 것이 바람직하다.In addition, before the step (c21), (c31) the
또한, 상기 (c31) 단계 이후, (c32) 상기 정규화 모듈(240)이 상기 어느 하나의 초분광정보의 정규화 전 XY 좌표(x, y)와 정규화된 이후의 XY 좌표(x', y')의 값을 이용하여, 매개변수를 포함한 행렬식인 호모그래피(homography)(H)를 연산하는 단계; 및 (c33) 상기 연산된 호모그래피(H)를 이용하여, 다른 하나의 초분광정보를 정규화하는 단계를 포함하는 것이 바람직하다.In addition, after step (c31), (c32) the
또한, 상기 (c32) 단계에서 동차좌표계(homogeneous coordinates)가 활용되어 정규화 전 XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭되며, 다음의 수식을 이용하되 다수의 XY 좌표를 활용하여, 호모그래피(H)가 연산되며, 상기 (c33) 단계는, 다른 하나의 초분광정보를 행렬식 A에 대입하여, 정규화된 XY 좌표인 행렬식 A'가 연산되는 것이 바람직하다.In addition, in the step (c32), homogeneous coordinates are used, so that the XY coordinates before normalization are (x, y, 1) and are referred to as the determinant A, and the XY coordinates after normalization are (x', y', 1) is referred to as the determinant A', and the homography (H) is calculated using the following formula but using a number of XY coordinates, In the step (c33), it is preferable that the determinant A', which is the normalized XY coordinates, is calculated by substituting another piece of hyperspectral information into the determinant A.
상기와 같은 과제를 해결하기 위한 본 발명의 다른 실시예는, 컴퓨터 판독 가능한 기록 매체에 저장되어, 전술한 방법을 실행시키는 프로그램과, 그 코드가 기록된 컴퓨터 판독 가능한 기록 매체를 제공한다.Another embodiment of the present invention for solving the above problems is stored in a computer-readable recording medium, and provides a program for executing the above-described method, and a computer-readable recording medium in which the code is recorded.
본 발명에 따른 방법은, 작은 영상 단위(라인 단위)로 확보되는 초분광정보를 높은 정확도로 정합함으로써, 정확도 및 정밀도가 모두 높은 우수한 초분광영상을 획득하고, 이를 토대로 높은 정확도 및 정밀도로 수심을 추정할 수 있다. 특히, 높은 중량의 고성능 짐벌을 사용하지 않고서도 무인비행체의 흔들림을 효과적으로 보정할 수 있다. 전술한 영상 정합 기술과 함께 사용되어, 높은 상승 효과로서 우수한 초분광영상을 획득하게 한다. The method according to the present invention obtains an excellent hyperspectral image with both high accuracy and precision by matching hyperspectral information secured in a small image unit (line unit) with high accuracy, and based on this, it acquires a water depth depth with high accuracy and precision. can be estimated In particular, it is possible to effectively correct the shake of the unmanned aerial vehicle without using a high-performance gimbal with a high weight. Used together with the above-described image registration technology, it allows to obtain excellent hyperspectral images with a high synergistic effect.
또한, 종래에는 실재 물체의 파장의 값과 가장 가까운 것으로 식별되는 값을 갖는 오직 1개의 파장만을 사용하기에, 해당 매칭이 부정확하거나 측정값에 오류가 있는 경우 실재 추정된 수심의 정확도가 낮다는 단점이 있었지만, 본 발명에 의하여, 실재 수심의 파장의 값과 가장 가까운 것으로 식별되는 파장의 촬영값이 분자로 사용되고, 실재 수심의 파장의 값과 가장 먼 것으로 식별의 촬영값이 분모로 사용함으로써, 단일 파장에 의한 매칭과 달리 이중의 매칭 과정을 통해 수심의 값을 추정하기에, 정확도를 높일 수 있는 것이다.In addition, since only one wavelength having a value identified as closest to the wavelength value of the real object is used in the prior art, the accuracy of the actual estimated water depth is low when the matching is inaccurate or there is an error in the measurement value However, according to the present invention, the photographed value of the wavelength identified as closest to the value of the wavelength of the actual water depth is used as the numerator, and the photographed value of the wavelength identified as the closest to the value of the wavelength of the actual water depth is used as the denominator. Unlike matching by wavelength, it is possible to increase the accuracy by estimating the value of the water depth through a double matching process.
또한, 추정된 수심의 값을 이용해 하상표고를 산출하고, 산출된 하상표고를 이용해 하상 변동속도를 추정할 수 있는 것이다. In addition, the riverbed elevation can be calculated using the estimated water depth value, and the riverbed change rate can be estimated using the calculated riverbed elevation.
또한, 이러한 방법은, 단 1개의 프로그램으로서 논스톱(non-stop) 개념으로 컴퓨터 프로그램화되어, 다수의 지점의 관측값인 수심과 촬영된 초분광영상이 입력되면, 초분광영상은 적절하게 전처리 및 후처리되고, 이를 기반으로 자동으로 회귀식이 결정되고, 자동으로 수심이 추정될 수 있으며, 이를 이용한 하상 변동속도도 추정될 수 있다.In addition, this method is computer-programmed in a non-stop concept as only one program, and when the water depth and the captured hyperspectral image, which are observation values of multiple points, are input, the hyperspectral image is appropriately pre-processed and It is post-processed, and a regression equation is automatically determined based on this, and the water depth can be estimated automatically, and the river bed fluctuation rate can be estimated using this.
특히, 기존에는 다수의 프로그램을 오고 가며 복잡한 연산 및 데이터 전송을 수행하여야 하였으나, 이러한 문제점들이 모두 해소됨은 물론, 적분영상을 활용하여 수일에 걸리던 연산 시간을 약 50% 이상 감소시킬 수 있다.In particular, in the past, it was necessary to perform complex calculations and data transmission by going back and forth between multiple programs. However, all these problems are solved, and the calculation time that used to take several days can be reduced by about 50% or more by using the integral image.
도 1은 본 발명에 따른 방법을 수행하기 위한 시스템을 도시한다.
도 2는 본 발명에 따른 방법 중 영상 처리 방법을 설명하기 위한 순서도이다.
도 3은 본 발명에 따른 방법 중 영상 분석 방법을 설명하기 위한 순서도이다.
도 4는 본 발명에 따른 하상 변동속도 측정 방법을 설명하기 위한 순서도이다.
도 5는 본 발명에 따른 방법에서 사용되는 무인비행체의 예시를 설명하기 위한 사진이다.
도 6은 본 발명에 따른 방법에서 무인비행체가 초분광정보를 획득하는 방법을 설명하기 위한 개략도이다.
도 7은 본 발명에 따른 방법 중 영상 처리 방법에서 기하보정을 설명하기 위한 개략도이다.
도 8은 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합을 설명하기 위한 개략도이다.
도 9는 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합을 위해 정규상관계수를 사용하는 방법을 설명하기 위한 개략도이다.
도 10은 본 발명에 따른 방법 중 영상 처리 방법에서 영상정합시 적분영상을 활용하는 방법을 설명하기 위한 개략도이다.
도 11은 본 발명에 따른 방법 중 영상 처리 방법에서 정규화 단계를 설명하기 위한 개략도이다.
도 12는 본 발명에 따른 방법 중 영상 분석 방법의 밴드비를 설명하기 위한 도면이다.
도 13은 본 발명에 따른 방법 중 영상 분석 방법에서 밴드비와 관측값인 수심을 이용하여 회귀분석이 수행되는 과정을 설명하기 위한 도면이다.
도 14는 본 발명에 따른 방법 중 영상 분석 방법에 의하여 설정된 상관관계 맵을 도시한다.
도 15는 본 발명에 따른 방법 중 영상 분석 방법에 의하여 상관관계 맵을 이용하여 회귀식을 선택하는 방법을 설명한다.
도 16은 본 발명에 따른 방법이 구현된 프로그램의 화면을 도시한다.
도 17은 본 발명에 따른 방법에서, 수체 판단 단계를 적용하여 수심 추정을 완성한 후 후보정을 통하여 최종 결과물이 출력되는 화면을 도시한다.
도 18은 본 발명에 따른 방법을 이용해 물이 존재하는 수체구역을 구분한 결과의 예시를 도시한다.
도 19는 본 발명에 따른 방법에서 하천 하상 표고를 산정하는 방법을 도시한다.
도 20은 본 발명에 따른 방법을 이용해, 시간차가 있는 두 초분광 영상을 활용한 하상 변동속도 측정 절차를 도시한다.1 shows a system for carrying out a method according to the invention;
2 is a flowchart illustrating an image processing method among methods according to the present invention.
3 is a flowchart illustrating an image analysis method among methods according to the present invention.
4 is a flowchart for explaining a method for measuring a river bed fluctuation rate according to the present invention.
5 is a photograph for explaining an example of an unmanned aerial vehicle used in the method according to the present invention.
6 is a schematic diagram for explaining a method for an unmanned aerial vehicle to acquire hyperspectral information in the method according to the present invention.
7 is a schematic diagram for explaining geometric correction in an image processing method among methods according to the present invention.
8 is a schematic diagram for explaining image registration in an image processing method among methods according to the present invention.
9 is a schematic diagram for explaining a method of using a normal correlation coefficient for image registration in an image processing method among methods according to the present invention.
10 is a schematic diagram for explaining a method of utilizing an integral image during image registration in an image processing method among methods according to the present invention.
11 is a schematic diagram for explaining a normalization step in an image processing method among methods according to the present invention.
12 is a diagram for explaining a band ratio of an image analysis method among methods according to the present invention.
13 is a view for explaining a process in which a regression analysis is performed using a band ratio and a water depth as an observation value in an image analysis method among the methods according to the present invention.
14 illustrates a correlation map set by an image analysis method among methods according to the present invention.
15 illustrates a method of selecting a regression equation using a correlation map by an image analysis method among methods according to the present invention.
16 shows a screen of a program in which the method according to the present invention is implemented.
17 illustrates a screen on which a final result is output through post-correction after completing the estimation of the water body by applying the water body determination step in the method according to the present invention.
18 shows an example of a result of classifying a waterbody zone in which water is present using the method according to the present invention.
19 shows a method for calculating the river bed elevation in the method according to the present invention.
20 shows a flow phase change rate measurement procedure using two hyperspectral images with a time difference using the method according to the present invention.
이하, 도면을 참조하여 본 발명을 보다 상세히 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.
이하에서는, 초분광영상을 이용하여 실재 측정하지 않고도 높은 정확도로 관측값인 수심을 추정하는 방법을 설명한다. 다만, 아래에서 설명하고 청구범위에서 설명되는 방법의 개념이 적용된다면, 수심 이외의 다른 물체(예를 들어, 해색, 암체, 식생 등)에 대한 식별도 가능할 것이며, 이러한 과정이 동일하거나 균등한 범위 내의 개념에 따라 이루어진다면, 이에 대한 권리범위 역시, 아래의 청구범위에서 청구되는 본 발명의 범위 내에 포함될 수 있음을, 통상의 기술자는 이해할 수 있을 것이다. Hereinafter, a method of estimating the depth of the observation value with high accuracy without actually measuring using the hyperspectral image will be described. However, if the concept of the method described below and described in the claims is applied, identification of objects other than the depth of water (eg, sea color, rocks, vegetation, etc.) It will be understood by those skilled in the art that, if made according to the concept within, the scope of the rights thereto may also be included within the scope of the present invention as claimed in the claims below.
시스템의 설명Description of the system
본 발명에 따른 방법이 수행되는 시스템은, 초분광센서(140)와 음향측심기(101)가 탑재되어 초분광영상을 촬영하고 초음파 센싱하는 무인비행체(100)와, 촬영된 초분광영상의 정확도를 향상시키기 위한 처리가 수행되는 영상처리부(200)와, 처리된 초분광영상을 기초로 수심을 추정하는 기능이 수행되는 영상분석부(300)와 전기적으로 연결되는 데이터베이스부(400)로 구분될 수 있다. The system in which the method according to the present invention is performed includes an unmanned
일 실시예에서, 무인비행체(100)에 초분광센서(140)만 탑재될 수 있다.In one embodiment, only the
무인비행체(100)는 예를 들어 드론일 수 있으나, 지표면으로부터 근거리에서 비행하는 어떠한 형식의 비행체이어도 무방하다. The unmanned
무인비행체(100)는, 자이로 센서와 가속도 센서가 있어 움직임의 반대 방향으로 카메라(130) 등을 이동시킬 수 있는 짐벌(110), 짐벌(110)에 구비되어 충격을 흡수하는 완충기(120), 초분광센서(140)가 탑재된 카메라(130), 및 초분광센서(140)에서 획득된 초분광정보를 영상처리부(200)에 전송할 수 있는 통신부(150)를 포함한다. The unmanned
짐벌(110)은 확보 가능한 어떠한 구조의 짐벌을 사용하여도 무방하나, 무게를 고려하여, 4축 또는 5축 짐벌보다는 1, 2, 3축 짐벌이 바람직하다. 다만, 1, 2, 3축 짐벌이 갖는 흔들림 보정의 한계는 완충기(120)의 보상으로 극복할 수 있다. The
또한, 무인비행체(100)에는 위치 정보를 확인하기 위한 GPS 센서가 더 포함될 수 있다. In addition, the unmanned
또한, 음향측심기(101)는 초음파 센서를 이용해 수심을 측정하는 장치로, 고수심의 수심을 측정할 수 있다. 음향측심기(101)가 무인비행체(100)에 탑재된 경우, 초분광정보를 이용해 측정할 수 있는 수심에 한계가 있어 이를 해결하기 위해 탑재한 것이다. 음향측심기(101)에서 지형 결정 모듈(360)에서 미리 결정된 기준 초과에 해당하는 수심(초분광센서(140)로 센싱할 수 없는 수심)을 측정하여 초음파정보로 영상처리부(200)에 전송할 수 있다. 지형 결정 모듈(360)에서 미리결정된 기준은 바람직하게는 초분광 영상을 통해 산정할 수 있는 최대수심일 수 있으며, 구체적으로 3.5m 내지 4m일 수 있다. 즉, 3.5m 내지 4m를 초과하는 수심을 갖는 수체 구역에 대해 음향측심기(101)가 초음파 정보로 수심을 측정하여 영상처리부(200)에 전송하는 것이다.In addition, the
이러한 무인비행체(100)의 예시가 도 5에 도시된다. An example of such an unmanned
영상처리부(200)는 통신모듈(210), 비행경로 설정모듈(220), 촬영영상 입력모듈(230), 정규화 수행모듈(240), 기하보정 수행모듈(250), 영상정합 수행모듈(260) 및 초분광영상 출력 모듈(270)을 포함한다. The
통신모듈(210)은 무인비행체(100)의 통신부(150)와 유선 또는 무선으로 통신하여, 촬영영상 입력모듈(230)이 초분광센서(140)에서 획득되는 초분광정보를 수신하도록 한다. 일 실시예에서, 촬영영상 입력모듈(230)이 음향측심기에서 획득되는 초음파정보를 수신할 수 있다. 수신하는 정보에는, 위치 정보가 포함될 수도 있다. The
비행경로 설정모듈(220)은 초분광정보 및/또는 초음파정보를 수집하고자 하는 수집영역을 기초로 하여, 그 영상을 확보하기 위한 무인비행체(100)의 비행경로를 설정하는 기능을 수행한다. The flight
정규화 수행모듈(240)은, 확보된 초분광정보의 정규화 기능을 수행한다. 모든 기하학적 변환에서, 회전, 크기, 평행성 보존 등은 원점(0, 0)을 기준으로 발생하기에, 각 영상에 존재하는 XY 좌표의 각 순서쌍의 정규화가 필요하다. The
기하보정 수행모듈(250)은, 확보된 초분광정보에서 지면의 굴곡 등 기하학적 조건에 의한 왜곡을 보상하기 위한 기하보정을 수행한다.The geometric
영상정합 수행모듈(260)은, 확보된 다수의 초분광정보를 정합하는 기능을 수행한다. 이를 위하여, 적분영상 연산모듈(261) 및 대응점 확인모듈(262)이 구비된다.The image
초분광영상 출력 모듈(270)은, 정규화되고, 기하보정되고, 영상정합된 최종 결과물로서 획득된 초분광영상을 출력하는 기능을 수행한다. 이때, 일 실시예에서, 초음파정보에 의한 최종 결과물로서 획득된 영상과, 데이터베이스부(400)에 의해 제공받은 하천 제내지 지형 정보의 결과물로서 획득된 영상을 정합하여 제공할 수 있다. 이에 따라, 하천의 지형을 측정할 수 있는 범위와 수준에 따른 기술을 제공하여 정확한 영상을 제공할 수 있게 된다.The hyperspectral
각 모듈의 구체적인 기능 수행 방법은 후술한다.A method of performing a specific function of each module will be described later.
영상분석부(300)는, 초분광 관측값 입력모듈(310), 밴드비 연산모듈(320), 회귀분석모듈(330), 회귀식 결정모듈(340), 관측값 추정모듈(350), 지형 결정 모듈(360), 및 표고 산정 모듈(370)을 포함한다. The
초분광 관측값 입력모듈(310)은, 미리 결정된 다수의 지점에 대한 실재 초분광 관측값인 수심(이하, '수심 관측값'이라 지칭함)을 입력하는 기능을 수행한다. 즉, 초분광영상에서 확보되는 촬영값과 상관관계를 확인하기 위한 실재의 수심이 입력되는 것이다. The hyperspectral observation
밴드비 연산모듈(320)은, 영상처리부(200)로부터의 초분광영상에서 확보되는 촬영값(예를 들어, 화소값)을 통해 밴드비를 연산한다. The band
회귀분석모듈(330)은, 수심 관측값과 밴드비의 회귀분석을 수행하여 회귀식을 연산한다. The
회귀식 결정모듈(340)은, 다수의 회귀식이 상관관계를 연산하여, 가장 상관성이 높은 회귀식을 결정하고, 이를 통해 최적의 밴드비를 결정하는 기능을 수행한다. The regression
관측값 추정모듈(350)은, 회귀식 결정모듈(340)에서 결정된 회귀식을 이용하여, 특정 초분광영상이 입력된 경우(즉, 임의의 밴드비가 입력된 경우), 이를 기반으로 관측값인 실재 수심을 추정하고, 이를 토대로 실재 물체를 식별하는 기능을 수행한다.The observation
지형 결정 모듈(360)은 추정된 실재 수심과 정규식생지수(NDWI)를 이용하여 지형을 결정하는 것이다. 크게 하천 제외지(수체 구역)와 하천 제내지(식생 구역)으로 구분할 수 있는데, 이 때, 하천 제외지 중 미리 결정된 수심보다 깊은 수심을 갖는 영역을 고수심 영역으로, 그리고 미리 결정된 수심보다 낮은 수심을 갖는 영역을 저수심 영역으로 더 구분할 수 있다. The
지형 결정 모듈(360)이 추정된 실재 수심과 정규식생지수(NDWI)를 이용하여 구역을 결정하여 수체 구역과 하천 제내지 구역으로 출력할 수 있다.The
구체적으로, 연산된 정규식생지수(NDWI)가 0이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정한 후 출력하는 것이다.Specifically, if the calculated regular vegetation index (NDWI) is greater than or equal to 0, it is determined as a waterbody area, and when it is less than 0, it is determined as a river sub-region, and each topography is determined and then output.
표고 산정 모듈(370)은 관측값 추정모듈(350)과 지형 결정 모듈(360)의 정보를 입력받아, 관측값 추정모듈(350)에서 추정된 실재 수심과 지형 결정 모듈(360)에서 결정된 수면 표고 등의 정보를 이용하여 임의의 지점의 표고를 산정 및 결정하는 모듈이다. 이 때, 지점으로 측정된 자료는 공간적인 자료로 변환하기 위해 보간법(Interpolation)을 실시한다. The
표고 산정 모듈(370)은 저장된 수학식을 이용하거나 산정된 수면의 표고에서 추정된 수심을 제하는 등 기설정된 방법으로 하상표고 E(x,y,t)를 산정한다.The
하상 변동속도 연산 모듈(380)은 관측값 추정모듈(350), 지형 결정 모듈(360) 및 표고 산정 모듈(370)의 정보를 입력받아, 정보를 저장된 수학식을 이용한 기설정된 방법으로 하상 변동속도를 연산한다. 이때, 하상 변동속도 연산 모듈(380)은 시간 변화량 δt 동안의 정보를 입력 받아 수체 구역과 하천 제내지 구역의 하천 하상 변동속도를 연산한다.The river bed fluctuation
각 모듈의 구체적인 기능 수행 방법은 후술한다.A method of performing a specific function of each module will be described later.
방법의 설명description of the method
본 발명에 따른 방법을 설명한다. 도 2를 참조한 영상 처리 방법과 도 3을 참조한 영상 분석 방법으로 구분하여 설명한다.The method according to the invention is described. An image processing method with reference to FIG. 2 and an image analysis method with reference to FIG. 3 will be described separately.
먼저, 도 2 및 도 6 내지 도 11을 참조하여 영상 처리 방법을 설명한다. First, an image processing method will be described with reference to FIGS. 2 and 6 to 11 .
비행경로 설정모듈(220)이, 수집영역을 이용하여 무인비행체(100)의 비행경로를 설정한다(S110). 수집영역은 수심을 추정하고자 하는 수체 및 그 주변의 하천 제외지 영역일 것이다. 음향측심기(101)와 초분광센서(140)가 라인 스캐닝을 수행하는바, 도 6에 도시된 바와 같이, 초음파정보 및 초분광정보를 획득하고자 하는 대상인 수집영역(collection area)에 대하여, 무인비행체(100)의 화각(angle of view)을 고려하여, 무인비행체(100)의 비행 경로(flight path)가 설정된다. 그 설정 방법은, 종래 기술에 따른 어떠한 것이어도 무방한바, 구체적인 설명은 생략한다.The flight
다음, 무인비행체(100)가, 상기 설정된 비행경로를 따라 비행하면서, 음향측심기(101) 및 초분광 센서(140)를 이용하여, 라인 스캐닝을 통해, 기 설정된 영상 단위마다 초음파정보 및 초분광정보를 획득한다(S120). 여기서의 영상 단위는 카메라(130) 또는 초분광 센서(140)의 특성에 따라 제조사에서 미리 설정된 것으로, 각 특성에 따라 상이한 방식으로 초음파정보 및 초분광정보가 획득될 수 있다. Next, while the unmanned
이와 같은 방법으로 확인된 초분광정보에 대하여, 기하보정이 이루어지고(S140), 영상정합이 이루어져서(S150), 영상 분석 대상이 되는 초분광영상이 확보된다. 초음파정보에 대하여도 동일하게 수행될 수 있다. 한편, 초음파정보는 음향측심기(101)에 의한 것이기 때문에, 이러한 과정 없이 기설정된 방법에 의해 바로 수심 값으로 확보될 수 있을 것이다.With respect to the hyperspectral information confirmed in this way, geometric correction is performed (S140) and image registration is performed (S150), so that a hyperspectral image to be analyzed is secured. The same may be performed for ultrasound information. On the other hand, since the ultrasound information is generated by the
구체적인 방법을 설명한다. A specific method will be described.
기하보정은, 기하보정 수행모듈(250)에 의하여 이루어진다(도 7 참조). 구체적으로, 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정이 수행된다. 종래 알려진 어떠한 방법이 적용되어도 무방하다. 이 과정은 초음파정보에 대하여도 동일하게 수행될 수 있다.The geometric correction is performed by the geometric correction performing module 250 (see FIG. 7 ). Specifically, geometric correction is performed on the hyperspectral information obtained for each image unit by using the position information of each pixel. Any conventionally known method may be applied. This process can be performed in the same way for ultrasound information.
영상정합은, 다수의 초분광정보를 일정한 기준점을 이용하여 정합하는 과정이다(도 8 참조). 다수의 초분광정보 중 적어도 2개의 쌍이 상호 일부씩 중첩되도록 촬영되는데, 소정의 기준점을 찾고, 이러한 기준점을 기초로 2개의 쌍의 초분광정보를 중첩하고, 이러한 과정이 모든 초분광정보의 각 쌍에서 반복됨으로써, 초분광영상이 획득된다. 즉, 영상정합의 기초는 2개의 초분광정보를 중첩하는 과정이다.Image registration is a process of matching a plurality of hyperspectral information using a certain reference point (refer to FIG. 8). At least two pairs of hyperspectral information are photographed so as to partially overlap each other, a predetermined reference point is found, and two pairs of hyperspectral information are superimposed on the basis of this reference point, and this process is performed in each pair of all hyperspectral information. By repeating in , hyperspectral images are obtained. That is, the basis of image registration is the process of superimposing two pieces of hyperspectral information.
본 발명에서는, "대응점 추출 알고리즘"을 착안하여, 이에 따라 영상정합을 수행한다. 이는, 중첩하는 영역이 있는 2개의 초분광정보 중 어느 하나의 초분광정보에서 템플릿(template)을 추출하고, 추출된 템플릿을 다른 하나의 초분광정보에서 상관성이 가장 높은 지점을 찾음으로써, 해당 지점을 중첩의 기준의 되는 점, 즉 대응점(matching point)로 설정하는 알고리즘이다. 이를 도 9에 도시하였다. In the present invention, focusing on the "corresponding point extraction algorithm", image registration is performed accordingly. This is by extracting a template from any one hyperspectral information among the two hyperspectral information having an overlapping area, and finding the point with the highest correlation in the other hyperspectral information with the extracted template. It is an algorithm that sets α as a point that serves as a reference point for superposition, that is, a matching point. This is shown in FIG. 9 .
구체적으로, 중첩하는 영역이 있는 2개의 초분광정보(A, B)(도 9에서, image1과 image2로 표시)의 영상정합을 설명한다. Specifically, image registration of two hyperspectral information A and B (indicated by image1 and image2 in Fig. 9) with overlapping regions will be described.
먼저, 대응점 확인 모듈(262)이, 중첩하는 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산한다. 이러한 과정은, 후술할 바와 같이, 초분광정보(A)의 템플릿의 모든 픽셀의 XY 좌표(x, y) 각각마다 다른 하나의 초분광정보(B)의 템플릿의 모든 픽셀의 XY 좌표(x', y')를 모두 대응시킴으로써 다수 회 이루어지게 된다. First, the corresponding
일반적인 정규상관계수를 연산하는 식은 아래의 수학식 1과 같으나, 본 발명에서는 보다 높은 정확도를 확보하기 위하여, 화소값을 더 이용한 수학식 2를 사용한다. Equation for calculating a general normal correlation coefficient is the same as
초분광정보(A)의 XY좌표는 (x, y)로 표현되고, 초분광정보(B)의 XY좌표는 (x', y')로 표현된다. 상부 바는 평균값을 의미한다(이는 이하의 모든 수식에서 동일하다). n은 총 화소의 수, I(x, y)는 XY 좌표 상 (x, y)에 해당하는 화소값이며, 초분광정보(A)의 화소값이 I1으로 표현되고 초분광정보(B)의 화소값이 I2로 표현된다. W는 템플릿의 가로 화소 크기, H는 템플릿의 세로 화소 크기이다. The XY coordinates of the hyperspectral information (A) are expressed as (x, y), and the XY coordinates of the hyperspectral information (B) are expressed as (x', y'). The upper bar means the average value (this is the same for all equations below). n is the total number of pixels, I(x, y) is a pixel value corresponding to (x, y) on XY coordinates, the pixel value of hyperspectral information (A) is expressed as I 1 and hyperspectral information (B) The pixel value of is expressed as I 2 . W is the horizontal pixel size of the template, and H is the vertical pixel size of the template.
이와 같은 방식으로, 템플릿 상의 모든 픽셀 좌표마다 정규상관계수를 연산하고, 이를 XY좌표로 표현하면, 도 9의 우하단에 도시된 바와 같은 상관계수 맵(correlation map)을 산정할 수 있다. 상관계수 맵에서 최대값을 가지는 위치, 즉, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하게 된다. In this way, if a normal correlation coefficient is calculated for every pixel coordinate on the template and expressed in XY coordinates, a correlation map as shown in the lower right of FIG. 9 can be calculated. The position having the maximum value in the correlation coefficient map, that is, the XY coordinates of the point having a large normal correlation coefficient value is identified as the corresponding point of the two hyperspectral information (A, B).
이제, 영상정합 수행모듈(260)은 대응점을 기준으로 두 개의 초분광정보(A, B)를 영상 정합하게 된다. Now, the image matching performing
영상정합 수행모듈(260)은 이러한 과정을 각각의 영상 단위마다의 모든 초분광정보의 각 쌍마다 수행하여 영상정합을 수행하며, 이를 통해 모든 촬영 영상들이 정합된 초분광영상이 획득된다. The image
다만, 이 경우 상당히 많은 연산이 수행되는바, 영상처리부(200)의 성능에 따라 연산 속도가 늦어질 수 있다. 따라서, 본 발명의 다른 실시예에서는, 보다 빠른 연산 속도를 구현하기 위해, 적분영상을 사용하여 연산량을 크게 줄인 상태에서 영상정합을 수행할 수 있다. 적분영상은 기준 좌표를 설정하고, 이를 기준으로 한 방향성을 이용하여, 각 픽셀의 화소값을 모두 합산한 후 이를 수학식 2와 같이 정규상관계수 연산에 필요한 화소값으로 사용하는 것이다. However, in this case, since quite a lot of calculations are performed, the calculation speed may be slow depending on the performance of the
도 10를 참조하여, 적분영상을 사용하는 개념을 설명한다. 좌측은 일반적인 영상을 도시한다. 각 픽셀마다 기록된 숫자는 화소값이다. 우측은 좌측 영상을 이용한 적분영상을 도시한다. 여기의 적분영상에서는 좌상단의 "2"를 기준 좌표로 설정한 후, 좌측 및 하측 방향으로 각 값을 합산함으로써 형성한 적분영상이다. 예를 들어, 2번째 줄, 3번째 열의 "13"은 2+1+5+0+3+2의 값이다. A concept of using an integral image will be described with reference to FIG. 10 . The left shows a typical image. The number recorded for each pixel is the pixel value. The right side shows an integral image using the left image. The integral image here is an integral image formed by setting “2” in the upper left corner as a reference coordinate and then summing the values in the left and lower directions. For example, "13" in the 2nd row and 3rd column is the value of 2+1+5+0+3+2.
만약, 해당 영상에서 가운데의 9개의 픽셀의 화소값의 합을 구하고 싶다면, 좌측의 일반적인 영상에서는 총 9번의 연산을 수행하여야 한다. 하지만, 우측의 적분영상에서는 4번의 연산을 수행하면 족하다. 즉, 적분영상을 생성하여 둠으로써, 연산량을 50% 이하로 낮추는 것이다. If you want to find the sum of the pixel values of nine pixels in the middle of the image, you need to perform a total of nine operations on the general image on the left. However, in the integral image on the right, it is sufficient to perform four operations. That is, by generating an integral image, the amount of computation is reduced to 50% or less.
구체적으로, 초분광영상에서 적분영상을 활용하는 방법은 아래와 같다. 먼저, 수학식 3을 이용하여 각 픽셀마다 적분영상에 의한 새로운 화소값(II(x, y))을 설정한다. Specifically, the method of using the integral image in the hyperspectral image is as follows. First, a new pixel value II(x, y) based on the integral image is set for each pixel by using
각 기호는 수학식 2에서 밝힌 바와 같다. 이제 이를 이용하면, 수학식 2에서 설명한 정규상관계수는 수학식 4에 의하여 연산될 수 있다. Each symbol is as shown in Equation (2). Now, using this, the normal correlation coefficient described in Equation (2) can be calculated by Equation (4).
여기서, 분모에 사용되는 표준편차 σ의 값은 수학식 5를 통해 연산될 수 있다. I가 화소값을 의미함은 앞에서 밝힌 바와 같다. Here, the value of the standard deviation σ used in the denominator may be calculated through
이와 같이, 한 번 적분영상을 생성하여 두기만 하면, 수학식 3 내지 수학식 5를 이용함으로써, 매 연산마다 수학식 2의 많은 연산량을 사용할 필요가 없어지기에, 정규상관계수를 신속하게 연산할 수 있어서 바람직하다. In this way, once the integral image is created and placed, by using
한편, 전술한 바와 같이, 모든 기하학적 변환에서, 회전, 크기, 평행성 보존 등은 원점(0, 0)을 기준으로 발생하기에, 본 발명의 일 실시예에서는, 각 영상에 존재하는 XY 좌표의 각 순서쌍의 정규화를 수행한 후, 기하보정 및 영상정합이 이루어질 수 있다. On the other hand, as described above, in all geometric transformations, rotation, size, parallelism preservation, etc. occur based on the origin (0, 0), so in an embodiment of the present invention, the XY coordinates present in each image are After performing normalization of each ordered pair, geometric correction and image registration may be performed.
구체적으로, 정규화 모듈(240)은, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화한다. 이러한 개념이 도 11에 도시된다. Specifically, the
보다 구체적으로, 이러한 연산은 수학식 6을 이용할 수 있다. More specifically, this operation may use Equation (6).
여기서, A는 정규화하고자 하는(즉, 정규화되지 않은) 초분광정보에서의 XY 좌표이고, A'는 정규화된 XY 좌표이다. 여기서의 좌표는, 후술하는 매개변수 연산을 위해, 동차좌표계를 이용하는 것이 바람직하다. 즉, XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭된다. 일종의 벡터와 같이 표현한 것으로서, 달리 표현하면, 동차좌표계 안에서 (x, y)좌표는 무수히 많은 점으로 이루어진 선으로 이해할 수 있다. Here, A is the XY coordinates in hyperspectral information to be normalized (ie, not normalized), and A' is the normalized XY coordinates. For the coordinates here, it is preferable to use a homogeneous coordinate system for parameter calculation to be described later. That is, the XY coordinates are referred to as the determinant A as (x, y, 1), and the XY coordinates after normalization are referred to as the determinant A' as (x', y', 1). It is expressed as a kind of vector. In other words, the (x, y) coordinates in the homogeneous coordinate system can be understood as a line made up of countless points.
H는 정규화를 위한 매개변수(h11~h33)로 구성된 행렬인 호모그래피이다. 즉, 호모그래피(H)를 연산해두면, 모든 초분광정보를 손쉽게 정규화할 수 있다. H is a homography, which is a matrix composed of parameters (h 11 to h 33 ) for normalization. That is, if the homography (H) is calculated, all hyperspectral information can be easily normalized.
호모그래피(H)의 연산을 위해서, 수학식 6을 이용하되, 어느 하나의 정규화된 값이 필요하다. 즉, 어느 하나의 초분광정보에 대해서는, 도 11을 참조하여 설명한 방법을 이용하여 별도로 정규화한 후, 그 값을 이용하여 호모그래피(H)를 연산하는 것이다. 예를 들어, 정규화되기 이전의 XY 좌표의 x 및 y의 순서쌍 4개를 알고, 해당 순서쌍 4개의 정규화된 값을 알 경우, 수학식 6을 이용하면, 수학식 7 및 수학식 8을 도출할 수 있으며, 이에 따라 각 매개변수(h11~h33)를 확인할 수 있다. For the calculation of the homography (H),
수학식 8에 의하여 호모그래피(H)가 연산되면, 이제 모든 초분광영상의 모든 픽셀의 XY 좌표를 수학식 6에 대입함으로써, 별도로 정규화된 값을 연산할 필요도 없이, 작은 연산량만으로 정규화가 가능하다. If the homography (H) is calculated according to
이와 같이, 호모그래피(H)가 있다는 것은, 대응점 사이의 좌표 변화만 가능한 것뿐만 아니라 2개의 초분광정보의 좌표계에 존재하는 모든 점을 서로 변환 가능한 것을 의미한다. 따라서, 2개의 초분광정보 중 어느 하나의 초분광정보를 기준으로 나머지 다른 초분광정보를 정규화하여 좌표 변환을 실시하면 두 초분광영상은 동일 좌표계로 이동하게 된다. As described above, the existence of the homography H means that not only coordinate changes between corresponding points are possible, but also all points existing in the coordinate system of two hyperspectral information can be transformed into each other. Accordingly, when coordinate transformation is performed by normalizing the other hyperspectral information based on one hyperspectral information among the two hyperspectral information, the two hyperspectral images are moved to the same coordinate system.
다음, 도 3 및 도 12 내지 도 17을 참조하여 영상 분석 방법을 설명한다. Next, an image analysis method will be described with reference to FIGS. 3 and 12 to 17 .
전술한 영상 처리 방법이 수행된 초분광영상이 확보된 상태이다. 또한, 수심 추정을 위해, 미리 결정된 다수의 지점마다 각각의 초분광 관측값인 수심 관측값(Y)이 별도로 확인되어 있어야 한다(S210). 즉, 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력된 것이다. 여기서, 회귀분석의 정확도를 위하여, 수심 관측값(Y)이 확인되는 지점은 다수일수록 바람직하다.The hyperspectral image on which the above-described image processing method has been performed is secured. In addition, for the estimation of the depth, the observation value Y, which is each hyperspectral observation value, for each of a plurality of predetermined points must be separately identified (S210). That is, the observation value Y of each of a plurality of predetermined points is input to the hyperspectral observation
다음, 촬영영상 입력모듈(210)에는 초분광정보를 갖는 촬영영상이 입력되고, 수심 관측값이 입력되었던 미리 결정된 다수의 지점 각각에서 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))이 확인된다(S220). Next, a photographed image having hyperspectral information is input to the photographed
다음, 밴드비 연산모듈(320)이, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하고, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인한다(S230). 이 때에, 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(X)를 연산한다(S240)(도 12 참조). 이를 수식으로 표현하면, 아래의 수학식 9와 같다. Next, the band ratio calculation module 320 selects a pair (λ 1 , λ 2 ) of any two wavelengths among a plurality of wavelengths (x) included in the hyperspectral imaging value, and a hyperspectral imaging value for each (I(λ 1 ), I(λ 2 )) is checked (S230). At this time, the band ratio X is calculated by dividing one of the two identified hyperspectral imaging values I(λ 1 ) and I(λ 2 ) by the other ( S240 ) (see FIG. 12 ). If this is expressed as an equation, it is shown in Equation 9 below.
달리 표현하면, 어느 하나의 지점마다 밴드비가 연산되어 수심 관측값(Y)과 밴드비(X)가 확인되는데, 다수의 지점마다 각각 개별적으로 수행되는 것이다.In other words, the band ratio is calculated for each point to check the depth observation value (Y) and the band ratio (X), which is performed individually for each of a plurality of points.
다음, 회귀분석모듈(330)이, 수심 관측값(Y)과 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 다수의 지점 각각에서 S210 단계에서 확인된 수심 관측값(Y)과 S240 단계에서 연산된 밴드비(X)를 이용함으로써, 회귀식(Y=aX+b)의 a와 b를 연산하여, 회귀식(Y=aX+b)을 생성한다(S250). 여기서 a를 연산하는 구체적인 수식은 아래의 수학식 10과 같으며, a의 값이 연산되면 b의 값은 당연히 연산된다. n은 수심 관측값의 개수이며, X는 밴드비이고, Y는 수심 관측값이다. Next, the
도 13은 그 예시를 도시한다. 여기에는, 5개의 지점(P1, P2, P3, P4, P5)(즉,n=5)에서의 밴드비(X)와 수심 관측값(Y)을 이용하여 연산된 회귀식이 우측 하단에 도시된다.13 shows an example thereof. Here, the regression equation calculated using the band ratio (X) and the depth observation value (Y) at five points (P1, P2, P3, P4, P5) (ie, n=5) is shown in the lower right corner. .
한편, 이러한 과정은 S230 단계에서 선택된 2개의 파장을 변경하면서 각각의 쌍에 대하여 이루어질 수 있다. 미리 결정된 지점이 동일하고, 각 지점에서의 수심 관측값(Y)이 동일하더라도, 2개의 파장을 다르게 선택하면, 최종 연산되는 회귀식은 다르게 된다. Meanwhile, this process may be performed for each pair while changing the two wavelengths selected in step S230. Even if the predetermined point is the same and the observation value (Y) of the depth at each point is the same, if two wavelengths are selected differently, the final calculated regression equation is different.
구체적으로, 회귀분석모듈(330)이, 먼저 선택된 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, S240 내지 S250 단계를 반복하여, 다수의 회귀식을 생성한다(S260).Specifically, the
다음, 회귀식 결정모듈(340)이, 생성된 다수의 회귀식의 상관계수를 각각 연산하고, 그 중에서 상관계수가 가장 높은 회귀식을 선택한다(S270). 이 때에 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정된다. Next, the regression
예를 들어, 초분광정보에 포함된 파장의 개수가 N개라면, 2개의 파장의 쌍의 개수는 그 조합(combination)에 의하여 NC2개이므로, 해당 개수만큼 회귀식과 상관계수가 연산되어, 최적의 회귀식과 밴드비와 그 파장이 연산될 것이다.For example, if the number of wavelengths included in the hyperspectral information is N, the number of pairs of two wavelengths is N C 2 by the combination. The optimal regression equation and the band ratio and its wavelength will be calculated.
한편, 이러한 방식은 상관계수 맵을 이용하여 이루어질 수 있다. 상관계수 맵의 예시가 도 13에 도시된다(이는, 도 9에 설명된 영상 처리 방법의 상관계수 맵에 적용된 수치와 다른 개념이 적용된 것임에 주의한다). 여기에는, 회귀식 결정모듈(340)이, 생성된 다수의 회귀식에 대한 상관계수를 연산하되, 2개의 파장의 쌍에서 어느 하나의 파장을 X축으로 하고 다른 하나의 파장을 Y축으로 하여 생성한 상관계수 맵이 도시된다.On the other hand, this method may be achieved using a correlation coefficient map. An example of the correlation coefficient map is shown in FIG. 13 (note that a concept different from the numerical value applied to the correlation coefficient map of the image processing method described in FIG. 9 is applied). Here, the regression
다음, 회귀식 결정모듈(340)은 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하게 된다.Next, the regression
도 15에는 이러한 방식을 자동화하는 개념이 도시된다. 분광특성인 파장마다의 촬영값을 추출하고, 이를 통해 각각의 밴드비를 산정하고, 수심 관측값을 이용하여 회귀분석하면, 상관계수 맵이 생성되며, 각 파장의 쌍마다 상관계수를 연산함으로써, 최적 밴드비 파장과 최적 회귀식이 결정된다.15 shows the concept of automating this scheme. By extracting the imaging value for each wavelength, which is a spectral characteristic, and calculating each band ratio through this, and regression analysis using the depth observation value, a correlation coefficient map is generated, and by calculating the correlation coefficient for each pair of wavelengths, An optimal band ratio wavelength and an optimal regression equation are determined.
도 16은 이를 구현한 프로그램의 출력 화면을 도시한다. 우측의 상관계수 맵이 도시되며, 그 아래에는 각 파장에 대한 상관계수 및 회귀식이 자동으로 연산됨을 확인할 수 있다. 16 shows an output screen of a program implementing this. The correlation coefficient map on the right is shown, and it can be seen that the correlation coefficient and regression equation for each wavelength are automatically calculated below it.
이와 같은 과정을 통하여, 최적의 회귀식과 최적의 밴드비가 결정되면, 수심 관측값이 없는 위치에서도 초분광영상에 포함된 초분광정보의 파장과 촬영값만으로도 수심 관측값을 추정할 수 있다. Through this process, when the optimal regression equation and the optimal band ratio are determined, the depth observation value can be estimated using only the wavelength and the photographing value of the hyperspectral information included in the hyperspectral image even at a position where there is no depth observation value.
예를 들어, 관측값 추정모듈(350)이, 초분광영상에 포함된 촬영값 중에서 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하여 밴드비를 연산하면, 이를 최적의 회귀식에 입력하여 해당 지점의 수심 관측값을 높은 정확도로 추정할 수 있는 것이다.For example, when the observation
한편, 본 발명의 바람직한 실시예에서는, 최종 결과물인 수심 관측값이 식생 등으로 인하여 왜곡되는 현상을 방지하기 위한 단계를 더 포함할 수 있다. 이를 위하여 관측값 추정모듈(350)이 초분광영상에서 근적외선(NIR)에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산한다.Meanwhile, in a preferred embodiment of the present invention, the method may further include a step of preventing a phenomenon in which the final result, the observation value of depth, is distorted due to vegetation or the like. To this end, the observation
정규식생지수(NDWI)는 아래의 수식으로 연산된다. 여기에서, NIR은 초분광영상의 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 초분광영상의 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기이다. The regular expression index (NDWI) is calculated by the following formula. Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information of the hyperspectral image, and Green is the intensity of light at the wavelength corresponding to green among the values included in the hyperspectral information of the hyperspectral image. is the intensity of light.
위의 수학식 11로 연산된 값인 정규식생지수(NDWI)는 -1 내지 1의 범위에서 값을 갖게 된다. 정규식생지수(NDWI)가 0 이상일 경우 수체(하천제내지)로 판단하여, 앞선 단계에서 추정된 수심 관측값을 그대로 출력하면 되나, 0보다 작은 경우라면 수체가 아닌 것(즉, 식생 등 하천제외지)으로 판단하여 수심을 0으로 출력하거나 하천 제외지 구역으로 출력한다. 이 때, 0보다 작은 경우라면 수체가 아닌 것으로 판단하여 수심을 0으로 출력함으로써 식생 등에 의한 왜곡으로 수심이 일정 부분 연산되었던 것을 보상할 수 있다.The regular expression index (NDWI), which is a value calculated by Equation 11 above, has a value in the range of -1 to 1. If the regular vegetation index (NDWI) is 0 or more, it is judged as a waterbody (streams or rivers) and the water depth observation value estimated in the previous step can be output as it is. ), and output the water depth as 0 or output as a river exclusion zone. At this time, if it is less than 0, it is determined that the water body is not, and the water depth is output as 0, thereby compensating for the partial calculation of the water depth due to distortion due to vegetation or the like.
도 17의 좌측은 일반적인 카메라에 의하여 촬영된 영상을 도시하고, 우측은 본 발명에 따른 방법이 수행된 결과물을 도시한다. 정규식생지수(NDWI)의 활용으로 수체인 부분(청색 부분)과 아닌 부분이 구분되었으며, 수체인 부분에서는 회귀식을 이용한 추정 방법에 의하여, 높은 정확도로 각 지점들의 모든 수심이 빠짐없이 연산되었다. 이를 실재 데이터와 비교하여, 본 발명에 따른 방법의 정확도가 높음을 검증할 수 있었다.이러한 단계를 수행함으로써, 수심 관측값 추정 정확도가 더욱 상승할 수 있다. The left side of FIG. 17 shows an image captured by a general camera, and the right side shows the result of performing the method according to the present invention. The water chain part (blue part) and the non-water part part were distinguished by the use of the regular vegetation index (NDWI). By comparing this with real data, it was possible to verify that the accuracy of the method according to the present invention is high. By performing these steps, the accuracy of estimating the depth observation value can be further improved.
도 4 및 도 18 내지 도 20을 참조하여 하상 변동속도 측정을 위한 하상표고 산정 방법을 더 설명한다.A method of calculating the elevation of the river bed for measuring the rate of change of the river bed will be further described with reference to FIGS. 4 and 18 to 20 .
본 발명은 초분광 영상으로 고수심에 대한 수심 관측값을 추정하는데 발생하는 한계를 보완하고 정확도를 상승시키기 위해 표고 산정 모듈(370)을 더 이용하여 하천 지형을 측량할 수 있다.According to the present invention, the river topography can be surveyed by further using the
먼저, 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산한다(S310).First, the observation
다음, 지형 결정 모듈(360)이, 연산된 정규식생지수(NDWI)가 0 이상인 구역을 수체 구역으로 결정하고, 0보다 작은 구역을 하천 제내지 구역으로 결정한다(S320).Next, the
다음, 표고 산정 모듈(370)이, 데이터베이스부(400)에서 지형 결정모듈에 의해 결정된 수체 구역과 하천 제내지 구역에 상응하는 구역의 지형 정보 중 표고 정보를 수집한다(S330).Next, the
데이터베이스부(400)에는 종래의 지형측량 방법을 활용하여 제내지에 대한 표고 정보가 미리 저장되어 있으며, 지리 정보 시스템(geographic information system, GIS)의 정보를 불러온 것일 수 있다. 지형측량 방법은 널리 알려진 방법을 사용하는 것이므로 별도의 설명은 생략한다.In the
다음, 표고 산정 모듈(370)이, 지형 결정 모듈(360)에 의해 결정된 수체 구역의 외곽선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 해당 위치정보에 상응하는 위치의 표고 정보를 이용하여 이를 수면의 표고로 산정힌다(S340). 이와 관련된 식은 아래의 수학식 12와 같다. Next, the
다음, 표고 산정 모듈(370)이, (S340) 단계에서 산정된 수면의 표고에서 추정된 수심을 제하여 이를 제1 하상표고로 산정한다(S350).Next, the
도 18은 수학식 11을 활용하여 적용한 결과로, 물이 존재하는 수체구역을 구분한 결과의 예시로서, 물의 존재 여부에 따라 수체구역을 구분할 수 있다. 수체구역이 아닌 지역에 대해서는 드론이나 직접 측정한 수치표고 모형의 표고를 활용하고, 수체구역인 지역에 대해서는 수체구역 외곽선을 구성하는 다수의 점의 위치에 해당하는 표고를 활용하여 수면의 표고를 산정하며, 산정된 수면의 표고와 임의의 지점에 대한 수심자료를 활용하여 하상의 표고를 산정한다. 이와 관련된 식은 아래의 수학식 13과 같다. 본 발명은, 각 구역에 따라 정확도가 높은 수심 관측법을 제공할 수 있으며, 각각 관측된 수심 값을 이용해 산정되는 하상표고의 구분을 위해, 초분광 영상을 이용해 추정된 수심 관측값을 이용해 산정된 하상표고를 제1 하상표고로 결정하였다.FIG. 18 is an example of a result of dividing a waterbody region in which water exists as a result of applying Equation 11, and the waterbody region may be classified according to the presence or absence of water. For areas other than the waterbody area, the elevation of a digital elevation model measured by drones or directly is used, and for the area that is a waterbody area, the elevation of the water surface is calculated by using the elevations corresponding to the locations of multiple points constituting the outline of the waterbody area. The elevation of the riverbed is calculated by using the calculated elevation of the water surface and the water depth data for any point. Equation related to this is as
이 때, 하상 변동속도 연산 모듈(380)에서의 연산을 위해 표고 산정 모듈(370)이, 제1 하상표고를 하상표고 E(x,y,t)로 산정하는 것이 바람직할 것이다.At this time, it is preferable that the
도 19는 본 발명에 따른 드론 기반 초분광 영상을 활용한 수심 측정 방법을 활용하여, 하천 하상의 표고를 산정하는 방법을 도시화 한 것이다. 수체구역 내 하상에 대한 임의 지점의 표고는 수면표고에서 해당 지점의 수심을 제외하여 산정한다.19 is a diagram illustrating a method of calculating the elevation of a river bed by using a method for measuring depth using a drone-based hyperspectral image according to the present invention. The elevation of any point on the riverbed in the waterbody zone is calculated by subtracting the water depth of the point from the water surface elevation.
다른 실시예에서, 표고 산정 모듈(370)이, 수체 구역 중 미리 결정된 수심을 초과하는 수심을 갖는 수체 구역에 대해 초음파정보를 이용하여 미리 설정된 방법으로 제2 하상표고를 산정한다.In another embodiment, the
상기 지형 결정 모듈(360)에서 미리 결정된 수심은 초분광 영상을 통해 산정할 수 있는 최대 수심인 것이 바람직하다. 초분광 영상을 통해 산정할 수 있는 최대 수심은 한계가 있어 상대적으로 고수심을 측정하는데 한계가 있기 때문이다. 여기서, 초음파정보를 이용하여 추정된 수심 관측값을 이용해 산정된 하상표고를 제2 하상표고로 결정하였다.Preferably, the water depth predetermined in the
다음, 상기와 같은 단계를 거쳐 추정된 수심 관측값을 미리 설정된 방법에 따라 도 20과 같이 하상 변동속도로 연산될 수 있다(S350). 시간차가 있는 하상표고를 이용하여 하상 변동속도 측정 절차를 표현한 것으로, 두 초분광 영상으로 표현된 하천 하상의 표고는 짧은 시간동안에는 변화가 없고, 그 움직임이 매우 작기 때문에 짧은 시간 동안의 표고는 수학식 14와 같이 정의할 수 있다.Next, the water depth observation value estimated through the above steps may be calculated as shown in FIG. 20 according to a preset method (S350). The flow rate measurement procedure is expressed using the river bed elevation with a time difference. The elevation of the river bed expressed by two hyperspectral images does not change for a short time, and since the movement is very small, the elevation for a short time is calculated by the
여기서, x는 X방향 좌표, y는 Y방향 좌표, t는 시간, E는 표고, δx는 x 방향 변화량, δy는 y방향 변화량, δt는 시간 변화량이다.Here, x is the X-direction coordinate, y is the Y-direction coordinate, t is the time, E is the elevation, δx is the amount of change in the x direction, δy is the amount of change in the y direction, and δt is the amount of time change.
수학식 14의 우항을 테일러 전개 하면, Taylor expansion of the right term of
수학식 14와 수학식 15를 동시에 동시에 만족하기 위해서는 수학식 15의 우항의 미분식의 합이 수학식 16과 같이 0이 되어야 한다. 0이 아닌 δt 시간으로 양변을 나누어 수학식 17과 같이 x방향 및 y방향 변동속도로 구성된 식으로 변환할 수 있다(s350).In order to simultaneously satisfy Equation (14) and Equation (15), the sum of the differential expressions of the right term of Equation (15) must be 0 as in Equation (16). By dividing both sides by the non-zero δt time, it can be converted into an equation composed of the x-direction and y-direction fluctuation rates as in Equation 17 (s350).
이를 위해, 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)로 산정할 것이다.To this end, the
여기에서, Ex는 표고의 X방향 미분행렬, Ey는 표고의 Y방향 미분행렬, Vx는 표고의 X방향 변동속도, Vy는 표고의 Y방향 변동속도, Et는 표고의 시간 미분행렬이다.Here, Ex is the X-direction differential matrix of elevation, Ey is the Y-direction differential matrix of elevation, Vx is the X-direction velocity of elevation, Vy is the Y-direction velocity of elevation, and Et is the elevation time differential matrix.
수학식 17을 통해 하상 변동속도를 구하기 위해서는 수학식 18 내지 19와 같은 행렬식 형태로 변환하여 풀이한다. 행렬 A는 행과 열의 크기가 다른 비정방행렬이므로 비정방행렬의 역행렬은 의사역행렬(Pseudo inverse)을 통해 산정한다.In order to obtain the lower-phase change rate through Equation 17, it is converted into a determinant form such as Equations 18 to 19 and solved. Since matrix A is a non-square matrix with different row and column sizes, the inverse of the non-square matrix is calculated using a pseudo inverse matrix.
여기서,here,
qn은 수체구역 내 임의의 지점, n은 수체구역 내 지점의 개수이다.q n is any point in the waterbody zone, and n is the number of points in the waterbody zone.
위의 수학식과 같은 연산의 과정을 통해 S350 단계에서 하상변동 속도를 연산함으로써 측정할 수 있게 될 것이다.It will be possible to measure by calculating the lower-phase change speed in step S350 through the process of calculation as in the above equation.
다른 실시예에서, 표고 산정 모듈(370)이, 추정된 수심 중 지형 결정 모듈(360)에서 미리 결정된 수심을 초과하는 수심에 대해 초음파정보를 이용하여 하상표고를 산정한다. 산정된 수면의 표고에서 초음파센서를 통해 측정된 수심을 제외하여 산정하는 것이다.In another embodiment, the
다음으로, 표고 산정 모듈(370)이, 데이터베이스부(400)에서 S320단계에서 결정된 하천 제내지 구역에 상응하는 구역의 지형 정보 중 표고 정보를 수집한다.Next, the
데이터베이스부(400)에 지형측량 방법을 활용하여 측정된 표고 정보가 미리 저장되어 있으며, 지리 정보 시스템(geographic information system, GIS)의 정보를 불러온 것일 수 있다.Elevation information measured by using the topographical survey method is stored in the
상기 지형 결정 모듈(360)에서 미리결정된 수심은 초분광 영상을 통해 산정할 수 있는 최대 수심인 것이 바람직하다. 초분광 영상을 통해 산정할 수 있는 최대 수심은 한계가 있어 상대적으로 고수심을 측정하는데 한계가 있기 때문이다.일 실시예의 경우, 지형 결정 모듈(360)에서 결정된 수체 구역 및 하천 제내지 구역에 대한 하상 변동속도를 모두 연산하여 제공할 수 있다.The water depth predetermined in the
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are merely exemplary, and those skilled in the art may make various modifications and equivalent other modifications from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the protection scope of the present invention should be defined by the claims.
100: 무인비행체
101: 음향 측심기
110: 짐벌
120: 완충기
130: 카메라
140: 초분광 센서
150: 통신부
200: 영상처리부
210: 통신모듈
220: 비행경로 설정모듈
230: 촬영영상 입력모듈
240: 정규화 수행모듈
250: 기하보정 수행모듈
260: 영상정합 수행모듈
261: 적분영상 연산모듈
262: 대응점 확인모듈
270: 초분광영상 출력모듈
300: 영상분석부
310: 초분광 관측값 입력모듈
320: 밴드비 연산모듈
330: 회귀분석모듈
340: 회귀식 결정모듈
350: 관측값 추정모듈
360: 지형 결정 모듈
370: 표고 산정 모듈
380: 하상 변동속도 연산 모듈
400: 데이터베이스부100: unmanned aerial vehicle
101: echo sounder
110: gimbal
120: buffer
130: camera
140: hyperspectral sensor
150: communication department
200: image processing unit
210: communication module
220: flight path setting module
230: captured image input module
240: regularization performing module
250: geometric correction performing module
260: image registration performing module
261: integral image operation module
262: correspondence point confirmation module
270: hyperspectral image output module
300: image analysis unit
310: hyperspectral observation value input module
320: band ratio calculation module
330: regression analysis module
340: regression expression determination module
350: observation value estimation module
360: Terrain Determination Module
370: Elevation Estimation Module
380: lower phase variable speed calculation module
400: database unit
Claims (15)
(b) 기하보정 수행모듈(250)이, 상기 각각의 영상 단위마다 획득된 초분광정보에 대하여 각 픽셀의 위치정보를 이용하여 기하보정을 수행하는 단계;
(c) 영상정합 수행모듈(260)이, 상기 기하보정이 수행된, 상기 각각의 영상 단위마다 획득된 초분광정보를 정합하여, 상기 수집영역의 초분광영상을 획득하는 단계;
(d) 초분광 관측값 입력모듈(310)에 미리 결정된 다수의 지점 각각의 수심 관측값(Y)이 입력되는 단계;
(e) 밴드비 연산모듈(320)이, 상기 미리 결정된 다수의 지점 각각에서, 상기 (c) 단계에서 획득된 초분광영상으로부터 다수의 파장(x)에 대한 화소값인 초분광 촬영값(I(x))을 확인하고, 초분광 촬영값에 포함된 다수의 파장(x) 중 임의의 2개의 파장의 쌍(λ1, λ2)을 선택하여, 각각에 대한 초분광 촬영값(I(λ1), I(λ2))을 확인하는 단계;
(f) 상기 밴드비 연산모듈(320)이, 상기 확인된 2개의 초분광 촬영값(I(λ1), I(λ2))에서 어느 하나를 다른 하나로 나누어 밴드비(band ratio)(X)를 연산하는 단계; 및
(g) 회귀분석모듈(330)이, 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)가 선형관계에 있음을 가정하고, 상기 다수의 지점에서의 상기 수심 관측값(Y)과 상기 연산된 밴드비(X)를 이용하여, 회귀식(Y=aX+b)의 a와 b를 연산함으로써, 회귀식(Y=aX+b)을 생성하는 단계를 포함하며,
(h) 관측값 추정모듈(350)이 상기 (g) 단계에서 생성된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는 단계; 및
(m) 하상 변동속도 연산 모듈(380)이 상기 (h) 단계에서 추정된 수심을 이용하여 미리 설정된 방법에 따라 하상 변동속도를 연산하는 단계;를 포함하고,
상기 (m)단계는,
(m1) 관측값 추정모듈(350)이, 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계;
(m2) 지형 결정 모듈(360)이, 상기 연산된 정규식생지수(NDWI)가 0 이상인 경우 수체 구역으로 판단하고, 0보다 작은 경우 하천 제내지 구역으로 판단하여 각각의 지형을 결정하는 단계;
(m3) 표고 산정 모듈(370)이, 상기 지형 결정 모듈(360)에서 결정된 지형 중 상기 수체 구역의 외각선을 구성하는 다수의 지점의 각각의 픽셀의 위치정보를 이용하여 위치에 상응하는 표고를 활용하여 수면의 표고로 산정하는 단계;
(m4) 상기 표고 산정 모듈(370)이, 산정된 상기 수면의 표고에서 상기 추정된 수심을 제하여 하상표고 E(x,y,t)를 산정하는 단계;
(m5) 상기 하상 변동속도 연산 모듈(380)이 시간 변화량 δt 동안 상기 (m4) 단계에서 산정된 하상표고의 변동이 0인 것으로 가정하여, 아래의 수식을 통해 하상 변동속도를 연산하는 단계;를 포함하는,
,
하상 변동속도 측정 방법.
(a) the unmanned aerial vehicle 100, while flying along a set flight path, using the hyperspectral sensor 140 to obtain hyperspectral information for each preset image unit through line scanning;
(b) performing, by the geometric correction performing module 250, geometric correction on the hyperspectral information obtained for each image unit by using the position information of each pixel;
(c) acquiring, by the image matching performing module 260, the hyperspectral image of the collection area by matching the hyperspectral information obtained for each image unit on which the geometric correction is performed;
(d) inputting a depth observation value (Y) of each of a plurality of predetermined points to the hyperspectral observation value input module 310;
(e) the band ratio calculation module 320, at each of the plurality of predetermined points, from the hyperspectral image obtained in step (c), a hyperspectral imaging value (I) that is a pixel value for a plurality of wavelengths (x) (x)), select a pair (λ 1 , λ 2 ) of any two wavelengths among a plurality of wavelengths (x) included in the hyperspectral imaging value, and select the hyperspectral imaging value (I( determining λ 1 ), I(λ 2 ));
(f) the band ratio calculation module 320 divides any one of the two identified hyperspectral imaging values (I(λ 1 ), I(λ 2 )) by the other to obtain a band ratio (X) ) to calculate; and
(g) the regression analysis module 330, assuming that the depth observation value (Y) and the calculated band ratio (X) have a linear relationship, and the depth observation value (Y) at the plurality of points Using the calculated band ratio (X), by calculating a and b of the regression equation (Y = aX + b), comprising the step of generating a regression equation (Y = aX + b),
(h) estimating, by the observation value estimation module 350, the depth of the water from the hyperspectral image using the regression equation generated in the step (g); and
(m) calculating, by the river bed fluctuation rate calculation module 380, the river bed fluctuation rate according to a preset method using the water depth estimated in step (h);
The step (m) is,
(m1) calculating, by the observation value estimation module 350, a normal vegetation index (NDWI) using the intensity of light with respect to a wavelength corresponding to near infrared in the hyperspectral image;
(m2) determining, by the terrain determination module 360, a waterbody zone when the calculated regular vegetation index (NDWI) is greater than or equal to 0, and determined as a river sub-region when it is less than 0 to determine each terrain;
(m3) The elevation calculation module 370 calculates the elevation corresponding to the location by using the location information of each pixel of a plurality of points constituting the outer line of the water body area among the topography determined by the topography determination module 360 estimating as the elevation of the water surface by utilizing;
(m4) calculating, by the elevation calculation module 370, the river elevation E(x,y,t) by subtracting the estimated water depth from the calculated elevation of the water surface;
(m5) assuming that the change in the river bed elevation calculated in step (m4) is 0 during the time change amount δt by the river bed fluctuation rate calculation module 380, calculating the river bed fluctuation rate through the following formula; containing,
,
Method of measuring river bed fluctuation rate.
상기 (m5) 단계는,
아래의 수식을 통해 하상 변동속도를 연산하는 단계를 포함하는,
여기서,
이며,
qn은 수체 구역 내 임의의 지점인,
하상 변동속도 측정 방법.
According to claim 1,
The step (m5) is,
Including the step of calculating the rate of change of the river bed through the formula below,
here,
is,
q n is any point in the waterbody zone,
Method of measuring river bed fluctuation rate.
상기 (m3) 단계 이후, 상기 (m4) 단계 이전,
상기 표고 산정 모듈(370)이, 데이터베이스부(400)에서 상기(m2) 단계에서 결정된 하천 제내지 구역에 상응하는 구역의 표고 정보를 수집하는 단계;를 더 포함하며, 상기 (m5) 단계는, 상기 하천 제내지 구역에 대한 하상 변동속도를 연산하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
According to claim 1,
After step (m3), before step (m4),
The step of the elevation calculation module 370, the database unit 400 collecting the elevation information of the area corresponding to the river sub-region determined in the step (m2); further comprising, the step (m5), Further comprising the step of calculating the river bed fluctuation rate for the river sub-region,
Method of measuring river bed fluctuation rate.
상기 (g) 단계 이후,
(h) 상기 회귀분석모듈(330)이, 상기 초분광 촬영값에 포함된 상기 다수의 파장 중 상기 (e) 단계에서의 2개의 파장의 쌍을 제외한 다른 임의의 파장을 선택하여, 이에 대한 초분광 촬영값을 확인하고, 상기 (f) 내지 (g) 단계를 반복함으로써, 다수의 2개의 파장의 쌍마다 각각 회귀식을 생성하는 단계;
(i) 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식 중 상관계수(correlation)가 가장 높은 회귀식을 선택하는 단계;
(j) 상기 회귀식 결정모듈(340)이, 상기 (g) 단계에서 선택된 회귀식에 사용된 밴드비(X)에 적용된 2개의 파장을, 최적 밴드비 파장의 쌍으로 결정하는 단계를 더 포함하며,
상기 선택된 회귀식을 이용하여 초분광영상으로부터 수심을 추정하는,
하상 변동속도 측정 방법.
The method of claim 1,
After step (g),
(h) the regression analysis module 330 selects an arbitrary wavelength other than the pair of two wavelengths in step (e) from among the plurality of wavelengths included in the hyperspectral imaging value, generating a regression equation for each of a plurality of pairs of two wavelengths by verifying a spectroscopic image and repeating steps (f) to (g);
(i) selecting, by the regression equation determination module 340, a regression equation having the highest correlation coefficient among the generated plurality of regression equations;
(j) determining, by the regression equation determination module 340, the two wavelengths applied to the band ratio (X) used in the regression equation selected in the step (g) as a pair of optimal band ratio wavelengths; and
Estimating the water depth from the hyperspectral image using the selected regression equation,
Method of measuring river bed fluctuation rate.
상기 (j) 단계 이후,
(k) 관측값 추정모듈(350)이, 상기 다수의 지점 이외의 지점의 초분광 촬영값에서, 상기 (j) 단계에서 결정된 최적 밴드비 파장의 쌍에 해당하는 2개의 초분광 촬영값을 확인하고, 어느 하나를 다른 하나로 나누어 해당 지점의 밴드비를 연산하는 단계; 및
(l) 상기 관측값 추정모듈(350)이, 상기 (g) 단계에서 선택된 회귀식에 상기 연산된 밴드비를 입력하여 해당 지점의 수심 관측값을 추정하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
5. The method of claim 4,
After step (j),
(k) the observation value estimation module 350 identifies two hyperspectral imaging values corresponding to the pair of optimal band ratio wavelengths determined in step (j) from the hyperspectral imaging values of points other than the plurality of points and dividing one by another to calculate a band ratio of the corresponding point; and
(l) the observation value estimating module 350, inputting the calculated band ratio into the regression equation selected in the step (g), further comprising the step of estimating the observation value of the depth of the point,
Method of measuring river bed fluctuation rate.
상기 (l) 단계는,
상기 관측값 추정모듈(350)이 초분광영상에서 근적외선에 해당하는 파장에 대한 빛의 세기를 이용하여 정규식생지수(NDWI)를 연산하는 단계; 및
상기 관측값 추정모듈(350)이 상기 연산된 정규식생지수(NDWI)가 0보다 작은 경우 수심을 0으로 출력하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
6. The method of claim 5,
The step (l) is,
calculating, by the observation value estimation module 350, a normal expression index (NDWI) using the intensity of light for a wavelength corresponding to near infrared in the hyperspectral image; and
The method further comprising the step of outputting, by the observation value estimation module 350, the depth of water as 0 when the calculated regular vegetation index (NDWI) is less than 0,
Method of measuring river bed fluctuation rate.
상기 정규식생지수(NDWI)는 아래의 수식으로 연산되며,
여기에서, NIR은 상기 초분광정보에 포함된 값 중 근적외선에 해당하는 파장에서의 빛의 세기이고, Green은 상기 초분광정보에 포함된 값 중 녹색에 해당하는 파장에서의 빛의 세기인,
하상 변동속도 측정 방법.
7. The method of claim 6,
The regular expression index (NDWI) is calculated by the following formula,
Here, NIR is the intensity of light at a wavelength corresponding to near infrared among the values included in the hyperspectral information, and Green is the intensity of light at a wavelength corresponding to green among the values included in the hyperspectral information,
Method of measuring river bed fluctuation rate.
상기 (i) 단계는,
상기 회귀식 결정모듈(340)이, 상기 생성된 다수의 회귀식에 대한 상관계수를 연산하여, 2개의 파장의 쌍에서 각각의 파장을 X축 및 Y축으로 하는 상관계수 맵을 생성하는 단계를 포함하고,
상기 (i) 단계는,
상기 회귀식 결정모듈(340)이, 상기 (i) 단계에서 생성된 상관계수 맵을 이용하여 상관계수가 가장 높은 지점을 결정하고, 해당 지점을 구성하는 각각의 파장을 상기 최적 밴드비 파장의 쌍으로 결정하는 단계를 포함하는,
하상 변동속도 측정 방법.
6. The method of claim 5,
Step (i) is,
generating, by the regression equation determination module 340, correlation coefficients for the generated plurality of regression equations, and generating a correlation coefficient map in which each wavelength is an X-axis and a Y-axis in a pair of two wavelengths; including,
Step (i) is,
The regression formula determination module 340 determines a point having the highest correlation coefficient using the correlation coefficient map generated in step (i), and sets each wavelength constituting the point to the pair of optimal band ratio wavelengths. comprising the step of determining
Method of measuring river bed fluctuation rate.
상기 (c) 단계는,
(c11) 대응점 확인 모듈(262)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 어느 두 개의 초분광정보(A, B)에 있어서, 어느 하나의 초분광정보(A)의 어느 하나의 픽셀의 XY 좌표(x, y) 및 해당 좌표에서의 화소값(I(x, y))에 대하여, 다른 하나의 초분광정보(B)의 어느 하나의 픽셀의 XY 좌표(x', y') 및 해당 좌표에서의 화소값(I(x', y'))의 정규상관계수(normalized correlation)를 연산하되, 상기 어느 하나의 초분광정보(A)의 모든 픽셀 각각에 대하여 상기 다른 하나의 초분광정보(B)의 모든 픽셀 각각의 정규상관계수를 모두 연산함으로써, 정규상관계수의 값이 큰 지점의 XY좌표를 상기 두 개의 초분광정보(A, B)의 대응점으로 확인하는 단계;
(c12) 상기 영상정합 수행모듈(260)이 상기 확인된 대응점을 기준으로 상기 두 개의 초분광정보(A, B)를 영상 정합하는 단계; 및
(c13) 상기 영상정합 수행모듈(260)이 상기 (c11) 내지 (c12) 단계를, 상기 (a) 단계에서 획득된 각각의 영상 단위마다의 초분광정보의 각 쌍마다 수행하여, 영상정합된 상기 수집영역의 초분광영상을 획득하는 단계를 포함하는,
하상 변동속도 측정 방법.
The method of claim 1,
The step (c) is,
(c11) In any two hyperspectral information (A, B) obtained by the corresponding point confirmation module 262 for each image unit on which the geometric correction is performed, any one of the hyperspectral information (A) With respect to the XY coordinates (x, y) of the pixel and the pixel value (I(x, y)) at the corresponding coordinates, the XY coordinates (x', y) of any one pixel of the other hyperspectral information (B) ') and a normalized correlation coefficient of the pixel value I(x', y') at the corresponding coordinates, but for each pixel of the one hyperspectral information A, the other checking the XY coordinates of a point having a large value of the normal correlation coefficient as a corresponding point of the two hyperspectral information (A, B) by calculating all the normal correlation coefficients of each pixel of the hyperspectral information (B);
(c12) image registration of the two hyperspectral information (A, B) based on the identified corresponding point by the image matching performing module 260; and
(c13) the image registration performing module 260 performs the steps (c11) to (c12) for each pair of hyperspectral information for each image unit obtained in the step (a), Comprising the step of obtaining a hyperspectral image of the collection area,
Method of measuring river bed fluctuation rate.
상기 (c11) 단계 이전에,
(c21) 적분영상 연산모듈(261)이, 상기 기하 보정이 수행된 각각의 영상 단위마다 획득된 초분광정보에서, 각각의 픽셀마다, 어느 하나의 기준 좌표를 기준으로 하여 적분영상(integral image) 화소값을 연산하는 단계를 더 포함하며,
상기 (c11) 단계에서의 화소값은, 상기 (c21) 단계에서 연산된 적분영상 화소값인,
하상 변동속도 측정 방법.
10. The method of claim 9,
Before step (c11),
(c21) the integral image operation module 261, in the hyperspectral information obtained for each image unit on which the geometric correction is performed, for each pixel, an integral image based on any one reference coordinate Further comprising the step of calculating the pixel value,
The pixel value in step (c11) is the pixel value of the integral image calculated in step (c21),
Method of measuring river bed fluctuation rate.
상기 (c21) 단계 이전에,
(c31) 정규화 모듈(240)이, 어느 하나의 영상 단위의 초분광정보의 픽셀의 XY 좌표들을 정수의 순서쌍(x, y)으로 설정하고, 상기 설정된 XY 좌표들의 평균 좌표를 연산하고, 상기 연산된 평균 좌표를 원점(0, 0)으로 설정하여 각 정수의 순서쌍(x, y) 사이의 단위 거리가 √2가 되도록, 상기 XY 좌표(x, y)를 정규화된 XY 좌표(x', y')로 이동시킴으로써, 상기 어느 하나의 영상 단위의 초분광정보를 정규화하는 단계를 더 포함하는,
하상 변동속도 측정 방법.
11. The method of claim 10,
Before step (c21),
(c31) the normalization module 240 sets the XY coordinates of the pixels of the hyperspectral information of any one image unit as an ordered pair of integers (x, y), calculates the average coordinates of the set XY coordinates, and the operation The XY coordinates (x, y) are normalized to the XY coordinates (x', y) so that the unit distance between the ordered pairs (x, y) of each integer is √2 by setting the average coordinates as the origin (0, 0). '), further comprising the step of normalizing the hyperspectral information of any one image unit by moving to,
Method of measuring river bed fluctuation rate.
상기 (c31) 단계 이후,
(c32) 상기 정규화 모듈(240)이 상기 어느 하나의 초분광정보의 정규화 전 XY 좌표(x, y)와 정규화된 이후의 XY 좌표(x', y')의 값을 이용하여, 매개변수를 포함한 행렬식인 호모그래피(homography)(H)를 연산하는 단계; 및
(c33) 상기 연산된 호모그래피(H)를 이용하여, 다른 하나의 초분광정보를 정규화하는 단계를 포함하는,
하상 변동속도 측정 방법.
12. The method of claim 11,
After step (c31),
(c32) the normalization module 240 uses the values of the XY coordinates (x, y) before the normalization of any one of the hyperspectral information and the XY coordinates (x', y') after the normalization, calculating a homography (H) which is a determinant including; and
(c33) using the calculated homography (H), comprising the step of normalizing another hyperspectral information,
Method of measuring river bed fluctuation rate.
상기 (c32) 단계에서 동차좌표계(homogeneous coordinates)가 활용되어 정규화 전 XY 좌표는 (x, y, 1)로서 행렬식 A로 지칭되고, 정규화된 이후의 XY 좌표는 (x', y', 1)로서 행렬식 A'로 지칭되며, 다음의 수식을 이용하되 다수의 XY 좌표를 활용하여, 호모그래피(H)가 연산되며,
상기 (c33) 단계는, 다른 하나의 초분광정보를 행렬식 A에 대입하여, 정규화된 XY 좌표인 행렬식 A'가 연산되는,
하상 변동속도 측정 방법.
13. The method of claim 12,
In step (c32), homogeneous coordinates are used so that the XY coordinates before normalization are (x, y, 1) and are referred to as determinant A, and the XY coordinates after normalization are (x', y', 1) It is referred to as the determinant A', and the homography (H) is calculated using the following formula but using a number of XY coordinates,
In the step (c33), the determinant A', which is the normalized XY coordinates, is calculated by substituting another hyperspectral information into the determinant A,
Method of measuring river bed fluctuation rate.
제 1 항 내지 제 13 항 중 어느 한 항에 따른 방법을 실행시키는 프로그램.
stored on a computer-readable recording medium.
14. A program for executing a method according to any one of claims 1 to 13.
14. A computer-readable recording medium on which a program code for executing the method according to any one of claims 1 to 13 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200019871A KR102313438B1 (en) | 2020-02-18 | 2020-02-18 | Method for estimation of river bed change rate using hyperspectral image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200019871A KR102313438B1 (en) | 2020-02-18 | 2020-02-18 | Method for estimation of river bed change rate using hyperspectral image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210105487A true KR20210105487A (en) | 2021-08-27 |
KR102313438B1 KR102313438B1 (en) | 2021-10-18 |
Family
ID=77504705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200019871A KR102313438B1 (en) | 2020-02-18 | 2020-02-18 | Method for estimation of river bed change rate using hyperspectral image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102313438B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114112906A (en) * | 2021-10-12 | 2022-03-01 | 中通服咨询设计研究院有限公司 | Water body feature extraction system based on unmanned aerial vehicle low-altitude remote sensing and local topography |
CN114396921A (en) * | 2021-11-15 | 2022-04-26 | 中国计量大学 | Qiantanjiang river tidal bore height and propagation speed measuring method based on unmanned aerial vehicle |
CN114677324A (en) * | 2022-01-20 | 2022-06-28 | 强企创新科技有限公司 | Water depth detection method and system |
CN116309783A (en) * | 2023-05-22 | 2023-06-23 | 山东锋士信息技术有限公司 | River channel compound section water level observation method based on remote sensing data |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7181055B2 (en) | 2003-08-15 | 2007-02-20 | Holger Lange | Systems and methods for registering reflectance and fluorescence hyperspectral imagery |
KR20140014819A (en) | 2012-07-26 | 2014-02-06 | 인하대학교 산학협력단 | Target detection method of hyperspectral image by indexing and querying based on pyramid-technique |
KR101463354B1 (en) * | 2013-10-22 | 2014-11-18 | 영남대학교 산학협력단 | Apparatus for target detection of hyperspectral image and method thereof |
KR101463351B1 (en) | 2013-09-02 | 2014-11-19 | 주식회사 포스코 | Shock absorbing unit for winding drum and mandrel coil box using the same |
KR101619836B1 (en) | 2016-02-05 | 2016-05-11 | (주)아세아항측 | Hyperspectral Remote monitoring system using drone |
KR101621354B1 (en) | 2016-03-31 | 2016-05-20 | 주식회사 지오스토리 | Water column correction using airborne hyperspectral image |
KR101672291B1 (en) * | 2016-03-31 | 2016-11-08 | 주식회사 지오스토리 | Water column correction using airborne hyperspectral image |
KR101689197B1 (en) | 2016-06-20 | 2016-12-23 | 주식회사 엠지아이티 | Gimbal assembly for drone |
KR101744662B1 (en) | 2016-11-30 | 2017-06-09 | 주식회사 지오스토리 | System for classifying halophytes using hyper-spectral imaging |
KR101806488B1 (en) | 2017-02-20 | 2017-12-07 | 한국지질자원연구원 | Detection methods of ore body containing chrome using drone equipped hyperspectral images sensor |
KR101963604B1 (en) | 2018-09-21 | 2019-03-29 | 한국지질자원연구원 | Submarine wide area orthophoto imaging device including hyperspectroscopic camera |
KR101936586B1 (en) | 2017-11-08 | 2019-04-09 | 한국건설기술연구원 | System for mapping river water-bloom map using data for detecting by gps-based random sampling, and method for the same |
KR102073394B1 (en) * | 2018-11-16 | 2020-02-04 | 대한민국 | Method for Quantification Detection Harmful Blue Green Algae In Inland Waters Using Hyperspectral Information |
-
2020
- 2020-02-18 KR KR1020200019871A patent/KR102313438B1/en active IP Right Grant
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7181055B2 (en) | 2003-08-15 | 2007-02-20 | Holger Lange | Systems and methods for registering reflectance and fluorescence hyperspectral imagery |
KR20140014819A (en) | 2012-07-26 | 2014-02-06 | 인하대학교 산학협력단 | Target detection method of hyperspectral image by indexing and querying based on pyramid-technique |
KR101463351B1 (en) | 2013-09-02 | 2014-11-19 | 주식회사 포스코 | Shock absorbing unit for winding drum and mandrel coil box using the same |
KR101463354B1 (en) * | 2013-10-22 | 2014-11-18 | 영남대학교 산학협력단 | Apparatus for target detection of hyperspectral image and method thereof |
KR101619836B1 (en) | 2016-02-05 | 2016-05-11 | (주)아세아항측 | Hyperspectral Remote monitoring system using drone |
KR101672291B1 (en) * | 2016-03-31 | 2016-11-08 | 주식회사 지오스토리 | Water column correction using airborne hyperspectral image |
KR101621354B1 (en) | 2016-03-31 | 2016-05-20 | 주식회사 지오스토리 | Water column correction using airborne hyperspectral image |
KR101689197B1 (en) | 2016-06-20 | 2016-12-23 | 주식회사 엠지아이티 | Gimbal assembly for drone |
KR101744662B1 (en) | 2016-11-30 | 2017-06-09 | 주식회사 지오스토리 | System for classifying halophytes using hyper-spectral imaging |
KR101806488B1 (en) | 2017-02-20 | 2017-12-07 | 한국지질자원연구원 | Detection methods of ore body containing chrome using drone equipped hyperspectral images sensor |
KR101936586B1 (en) | 2017-11-08 | 2019-04-09 | 한국건설기술연구원 | System for mapping river water-bloom map using data for detecting by gps-based random sampling, and method for the same |
KR101963604B1 (en) | 2018-09-21 | 2019-03-29 | 한국지질자원연구원 | Submarine wide area orthophoto imaging device including hyperspectroscopic camera |
KR102073394B1 (en) * | 2018-11-16 | 2020-02-04 | 대한민국 | Method for Quantification Detection Harmful Blue Green Algae In Inland Waters Using Hyperspectral Information |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114112906A (en) * | 2021-10-12 | 2022-03-01 | 中通服咨询设计研究院有限公司 | Water body feature extraction system based on unmanned aerial vehicle low-altitude remote sensing and local topography |
CN114112906B (en) * | 2021-10-12 | 2023-11-17 | 中通服咨询设计研究院有限公司 | Water body feature extraction system based on unmanned aerial vehicle low altitude remote sensing and local topography |
CN114396921A (en) * | 2021-11-15 | 2022-04-26 | 中国计量大学 | Qiantanjiang river tidal bore height and propagation speed measuring method based on unmanned aerial vehicle |
CN114396921B (en) * | 2021-11-15 | 2023-12-08 | 中国计量大学 | Method for measuring tidal height and propagation speed of Yangtze river on basis of unmanned aerial vehicle |
CN114677324A (en) * | 2022-01-20 | 2022-06-28 | 强企创新科技有限公司 | Water depth detection method and system |
CN116309783A (en) * | 2023-05-22 | 2023-06-23 | 山东锋士信息技术有限公司 | River channel compound section water level observation method based on remote sensing data |
CN116309783B (en) * | 2023-05-22 | 2023-08-29 | 山东锋士信息技术有限公司 | River channel compound section water level observation method based on remote sensing data |
Also Published As
Publication number | Publication date |
---|---|
KR102313438B1 (en) | 2021-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102313438B1 (en) | Method for estimation of river bed change rate using hyperspectral image | |
KR101489984B1 (en) | A stereo-image registration and change detection system and method | |
US9798928B2 (en) | System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability | |
US8737720B2 (en) | System and method for detecting and analyzing features in an agricultural field | |
CN108692719B (en) | Object detection device | |
CN106485655A (en) | A kind of taken photo by plane map generation system and method based on quadrotor | |
KR102169687B1 (en) | Method for acquisition of hyperspectral image using an unmanned aerial vehicle | |
Kunz et al. | Map building fusing acoustic and visual information using autonomous underwater vehicles | |
CN108537885B (en) | Method for acquiring three-dimensional topographic data of mountain wound surface | |
JP2019503484A (en) | Method and system for geometric referencing of multispectral data | |
CN107560603A (en) | A kind of unmanned plane oblique photograph measuring system and measuring method | |
JP6858415B2 (en) | Sea level measurement system, sea level measurement method and sea level measurement program | |
KR102313437B1 (en) | Method for estimation of bathymetry using hyperspectral image | |
CN115359130B (en) | Radar and camera combined calibration method and device, electronic equipment and storage medium | |
Ribera et al. | Estimating phenotypic traits from UAV based RGB imagery | |
JP7069609B2 (en) | Crop cultivation support device | |
KR102164522B1 (en) | Method for estimation of depth of water using hyperspectral image | |
JP3874363B1 (en) | Position rating device, position rating method, and position rating program | |
US10453178B2 (en) | Large scale image mosaic construction for agricultural applications | |
Becirevic et al. | On the derivation of crop heights from multitemporal UAV based imagery | |
Thoeni et al. | Use of low-cost terrestrial and aerial imaging sensors for geotechnical applications | |
Khezrabad et al. | A new approach for geometric correction of UAV-based pushbroom images through the processing of simultaneously acquired frame images | |
WO2022173285A1 (en) | Determining deformations of quay walls using a photogrammetric system | |
Schwind | Comparing and characterizing three-dimensional point clouds derived by structure from motion photogrammetry | |
Berveglieri et al. | Bundle adjustment of a time-sequential spectral camera using polynomial models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |