KR102193108B1 - Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle - Google Patents

Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle Download PDF

Info

Publication number
KR102193108B1
KR102193108B1 KR1020190125336A KR20190125336A KR102193108B1 KR 102193108 B1 KR102193108 B1 KR 102193108B1 KR 1020190125336 A KR1020190125336 A KR 1020190125336A KR 20190125336 A KR20190125336 A KR 20190125336A KR 102193108 B1 KR102193108 B1 KR 102193108B1
Authority
KR
South Korea
Prior art keywords
image
pixel intensity
frame
concentration
coordinate
Prior art date
Application number
KR1020190125336A
Other languages
Korean (ko)
Inventor
서일원
백동해
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020190125336A priority Critical patent/KR102193108B1/en
Application granted granted Critical
Publication of KR102193108B1 publication Critical patent/KR102193108B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/75Systems in which material is subjected to a chemical reaction, the progress or the result of the reaction being investigated
    • G01N21/77Systems in which material is subjected to a chemical reaction, the progress or the result of the reaction being investigated by observing the effect on a chemical indicator
    • G01N21/78Systems in which material is subjected to a chemical reaction, the progress or the result of the reaction being investigated by observing the effect on a chemical indicator producing a change of colour
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Abstract

The present invention relates to a method for measuring a two-dimensional river mixing behavior using an RGB image obtained from an unmanned aerial vehicle, which comprises the steps of: (a) obtaining RGB image data of a river using an unmanned aerial vehicle while performing a tracer experiment; (b) extracting, by an image coordinate tracking module, an image coordinate of a ground reference point for a subsequent frame with respect to the image coordinate of the ground reference point for a first frame of the RGB image data; (c) constructing, by a coordinate conversing module, a certain number of pairs of coordinates using the image coordinate of the ground reference point at each frame extracted in the step (b) and a UTM coordinate of the corresponding ground reference point, and projecting the pixel intensity of all the image coordinates of the RGB image data onto the pixel intensity of a UTM coordinate system; and (d) constructing, by an artificial neural network constructing module, an artificial neural network using a concentration value of a tracer material measured by a concentration measuring device and the pixel intensity of the RGB image, and converting the pixel intensity of a point where the concentration measuring device is not installed at each frame of the RGB image data into the concentration value of the tracer material through the constructed artificial neural network. According to the present invention, a relationship between the concentration value measured by the contact-type concentration measuring device at a small number of points and the pixel intensity of the RGB image for the corresponding concentration value is constructed through an artificial neural network, thereby temporally and spatially extracting concentration distribution for an area where the contact-type concentration measuring device is not installed from high-resolution RGB video image data.

Description

무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법 {Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle}{Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle}

본 발명은 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법에 관한 것으로, 더욱 상세하게는 소수의 지점에서 접촉식 농도측정기기에 의해 측정된 농도값과 해당 농도값에 대한 RGB 영상의 화소강도 간 관계를 인공신경망을 통해 구축함으로써 접촉식 농도측정기기가 미설치된 영역에 대한 농도분포를 고해상도의 RGB 비디오 영상자료로부터 시공간적으로 추출이 가능하도록 하는, 2차원 하천혼합거동 계측 방법에 관한 것이다.The present invention relates to a two-dimensional stream mixing behavior measurement method using an RGB image acquired from an unmanned aerial vehicle, and more particularly, a concentration value measured by a contact-type concentration measuring device at a few points and RGB for the corresponding concentration value. A two-dimensional stream mixing behavior measurement method that allows the spatial and temporal extraction of the density distribution for the area where the contact density measuring device is not installed by establishing the relationship between the pixel intensity of the image through an artificial neural network. will be.

최근 도시 하천 또는 산업단지 주변에 위치한 하천에서 유해화학물질의 유출사고가 빈번해짐에 따라 효과적인 방재계획수립 및 초동 조치를 위해 오염물질의 하천 혼합과정에 대한 신속한 예측이 요구되고 있다. 하천에서 용존성 유해물질이 유입되는 수질오염사고 시, 오염물질은 하천의 수리적 조건 및 지형학적 형상에 따라 다양한 특성의 혼합과정을 보이게 되며, 각 특성별 혼합 양상에 대한 효과적인 분석을 위해 사전에 하천별 혼합특성에 대한 방대한 관측자료의 구축이 필요하다.As accidents of hazardous chemicals are frequently leaked from urban rivers or rivers located near industrial complexes, rapid prediction of the stream mixing process of pollutants is required for effective disaster prevention plans and initial actions. In the event of a water pollution accident in which dissolved hazardous substances are introduced from a river, the pollutants show a mixing process of various characteristics according to the hydraulic conditions and topographic shape of the river, and for effective analysis of the mixing pattern for each characteristic, It is necessary to construct a vast amount of observational data on the star mixture characteristics.

하천에서 용존성 오염물질의 혼합과정을 관측하기 위한 종래의 실험적 방법으로는 형광물질, 소금물 혼합용액 또는 방사성 동위원소 등과 같은 검출이 용이한 추적물질을 하천 흐름에 주입한 후 접촉식 계측기기를 이용하여 추적물질의 농도를 측정하는 추적자실험법이 있다.As a conventional experimental method for observing the mixing process of dissolved pollutants in a river, trace substances such as fluorescent substances, salt water mixed solutions, or radioactive isotopes are injected into the stream and then contact-type measuring instruments are used. There is a tracer test method that measures the concentration of tracer substances.

그러나 접촉식 계측기기를 이용하는 기존의 추적자실험법은 측정기기가 설치된 고정된 위치에서 추적물질의 농도를 시계열적 자료로만 취득이 가능하며, 추적물질 농도의 공간적 분포를 계측하기에는 한계가 있다. 따라서 종래의 추적자실험법으로부터 취득한 자료를 이용하여 하천의 혼합과정을 분석하는 연구 또한 농도 자료의 시계열적 분석을 통해 주로 이루어져 왔다.However, in the conventional tracer test method using a contact-type measuring device, the concentration of the tracer substance can be acquired only as time series data at a fixed location where the measuring equipment is installed, and there is a limit to measuring the spatial distribution of tracer substance concentration. Therefore, studies that analyze the mixing process of streams using data obtained from the conventional tracer test method have also been mainly conducted through time-series analysis of concentration data.

한편, 수환경에 유입된 오염물질 농도의 공간적 분포를 계측하는 방법으로는 인공위성으로부터 취득된 위성영상으로부터 대상 물질의 농도 및 분포를 추출하는 방법이 존재하며 이는 연안 및 해양지역에서 활발히 이용되고 있다. 그러나 인공위성 영상을 이용하는 방법은 약 수백 미터에 달하는 영상자료의 공간적 해상도와 약 수십일이 걸리는 인공위성의 궤도주기에 의해 하천환경에서 오염물질의 혼합과정을 관측하기에는 한계가 있다.Meanwhile, as a method of measuring the spatial distribution of the concentration of pollutants introduced into the aquatic environment, there is a method of extracting the concentration and distribution of a target substance from satellite images acquired from satellites, which are actively used in coastal and marine areas. However, the method of using satellite imagery has limitations in observing the mixing process of pollutants in the river environment due to the spatial resolution of the image data of about several hundred meters and the orbital period of the satellite that takes about tens of days.

종래 기술인 대한민국 등록특허공보 제10-1866239호(2018.06.12.공고)는 수질환경이 의심되는 하천방류구 등에서 설정된 시간 및 위치에서 실시간으로 촬영한 영상으로 수질환경을 감시하는 방법에 관한 것으로, (a) 관리자에 의하여 하천이나 방류구의 수질환경을 감시하기 위한 지점이 수집 및 선정되어 수질환경 감시시스템의 관리자단말기에 감시지점에 관한 정보가 입력되면, 관리자단말기에 설치된 비행관제시스템용 프로그램의 수행에 따른 비행정보가 원격의 감시지점 현장에 준비된 드론으로 무선통신망을 통해 송신하는 단계; (b) 상기 드론은 비행관제시스템용 프로그램의 비행정보로 비행이 시작되어 설정된 감시목표지점에서 비행하는 동안 열화상카메라로 감시 목표지점을 촬영하여 영상데이터를 수집하는 단계; (c) 상기 드론은 수집된 영상데이터를 실시간으로 무선통신망을 통해 수질환경 감시시스템으로 전송하고, 수질환경 감시시스템의 중앙DB서버에서 영상데이터를 수신하여 저장하는 단계; (d) 수질환경 감시시스템의 분석서버에서 상기 중앙DB서버에 저장된 감시 목표지점의 영상데이터와 이미 촬영되어 저장된 이전의 감시 목표지점의 영상데이터의 열화상온도를 비교 및 분석하여 설정된 비율의 변화가 발생하였는지를 판단하는 단계; (e) 상기 분석서버의 분석결과로 변화가 발생하지 않았다면 관리자단말기의 비행관제시스템용 프로그램의 제어로 드론은 설정된 다음 감시목표지점으로 비행하거나 또는 비행 이전의 지점으로 복귀되도록 하고, 분석서버의 분석결과로 변화가 발생하였다면 관리자단말기와 현장의 감시원단말기로 알람정보를 무선통신망을 통해 전송하는 단계를 포함한 구성이 개시되어 있다. 그러나 영상의 화소강도의 변화로부터 대상 용질의 시공간적 농도자료를 정량적으로 산출하기에는 한계가 있다.The prior art Republic of Korea Patent Publication No. 10-1866239 (announced on June 12, 2018) relates to a method of monitoring the water quality environment with an image taken in real time at a set time and location at a river outlet where the water quality environment is suspected, (a ) When points for monitoring the water quality environment of rivers or outlets are collected and selected by the manager and information on the monitoring points is input to the manager terminal of the water quality environment monitoring system, the flight control system program installed on the manager terminal is executed. Transmitting flight information to a drone prepared at a remote monitoring point site through a wireless communication network; (b) the drone is a step of collecting image data by photographing a monitoring target point with a thermal imaging camera while flying at a set monitoring target point after starting a flight with flight information of a flight control system program; (c) the drone transmitting the collected image data to a water quality environment monitoring system through a wireless communication network in real time, and receiving and storing the image data from a central DB server of the water quality environment monitoring system; (d) The analysis server of the water quality environment monitoring system compares and analyzes the thermal image temperature of the image data of the monitoring target point stored in the central DB server and the image data of the previous monitoring target point that has already been photographed and stored, and changes in the set ratio Determining whether it has occurred; (e) If there is no change as a result of the analysis of the analysis server, the drone is allowed to fly to the next set monitoring target point or return to the point before flight by the control of the flight control system program of the manager terminal, and analysis of the analysis server If a change has occurred as a result, a configuration including the step of transmitting alarm information to the manager terminal and the monitoring station terminal in the field through a wireless communication network is disclosed. However, there is a limit to quantitatively calculating the spatiotemporal concentration data of the target solute from the change in the pixel intensity of the image.

대한민국 등록특허공보 제10-1866239호(2018.06.12.공고, 발명의 명칭: 드론을 활용한 수질환경 감시방법)Republic of Korea Patent Publication No. 10-1866239 (announced on June 12, 2018, title of invention: water quality environment monitoring method using a drone)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 소수의 지점에서 접촉식 농도측정기기에 의해 측정된 농도값과 해당 농도값에 대한 RGB 영상의 화소강도 간 관계를 인공신경망을 통해 구축함으로써 접촉식 농도측정기기가 미설치된 영역에 대한 농도분포를 고해상도의 RGB 비디오 영상자료로부터 시공간적으로 추출이 가능하도록 하여, 종래의 추적자실험법에서 관측이 어려웠던 추적자물질의 공간적 분포를 취득할 수 있게 함으로써 자연하천에서 오염물질의 혼합 거동에 대해 더욱 정밀한 분석을 가능하게 하는, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법을 제공하는데 있다.The present invention was conceived to solve the above problems, and an object of the present invention is to artificially analyze the relationship between the density value measured by the contact density measuring device at a few points and the pixel intensity of the RGB image for the corresponding density value. By constructing through a neural network, it is possible to extract the concentration distribution in a region where a contact-type concentration measuring device is not installed, from high-resolution RGB video image data, to obtain the spatial distribution of tracer material, which was difficult to observe in the conventional tracer experiment method. It is to provide a two-dimensional stream mixing behavior measurement method using an RGB image acquired from an unmanned aerial vehicle that enables more precise analysis of the mixing behavior of pollutants in natural rivers.

상기와 같은 목적을 달성하기 위하여, 본 발명은 (a) 추적자실험을 수행함과 동시에 무인항공체를 이용하여 하천의 RGB 영상자료를 취득하는 단계와; (b) 영상좌표 추적 모듈이 상기 RGB 영상자료의 첫번째 프레임에 대한 지상기준점의 영상좌표를 기준으로 이후 프레임에 대한 지상기준점의 영상좌표를 추출하는 단계와; (c) 좌표변환 모듈이 상기 단계(b)에서 추출된 각 프레임에서의 지상기준점의 영상좌표와 해당 지상기준점의 UTM 좌표로 일정개수의 좌표쌍을 구축하고 RGB 영상자료의 모든 영상좌표의 화소강도를 UTM 좌표계상의 화소강도에 투영하는 단계, 및 (d) 인공신경망 구축 모듈이 농도측정기기에 의해 측정된 추적자물질의 농도값과 RGB 영상의 화소강도를 이용하여 인공신경망을 구축하고, 구축된 인공신경망을 통해 RGB 영상자료의 각 프레임에서 농도측정기기가 설치되지 않은 지점의 화소강도를 추적자물질의 농도값으로 변환하는 단계로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention includes the steps of: (a) performing a tracer experiment and acquiring RGB image data of a river using an unmanned aerial vehicle; (b) extracting, by an image coordinate tracking module, the image coordinates of the ground reference point for subsequent frames based on the image coordinates of the ground reference point for the first frame of the RGB image data; (c) The coordinate conversion module constructs a certain number of coordinate pairs from the image coordinates of the ground reference point in each frame extracted in step (b) and the UTM coordinates of the corresponding ground reference point, and the pixel intensity of all the image coordinates of the RGB image data. Projecting the pixel intensity on the UTM coordinate system, and (d) the artificial neural network building module constructs an artificial neural network using the concentration value of the tracer material measured by the concentration measuring device and the pixel intensity of the RGB image, and It characterized in that it comprises the step of converting the pixel intensity at a point where the density measuring device is not installed in each frame of the RGB image data through a neural network into a concentration value of the tracer material.

또한, 본 발명에서 상기 단계(a)는 하천의 계측구간 주변부에 일정개수의 지상기준점 설치, 지상기준점의 UTM 좌표 측량, 태양광에 대한 참조 화소강도를 얻기 위한 폴리테트라플루오로에틸렌(PTFE) 패널 설치, 추적자물질인 로다민 WT의 농도를 측정하기 위한 일정개수의 농도측정기기 설치 및 추적자물질인 로다민 WT의 주입과 동시에 RGB 영상 촬영을 포함한다.In addition, in the present invention, the step (a) is a polytetrafluoroethylene (PTFE) panel for installing a certain number of ground reference points around the measurement section of a river, measuring UTM coordinates of the ground reference point, and obtaining reference pixel intensity for sunlight. It includes installation, installation of a certain number of concentration measuring devices to measure the concentration of the tracer material, rhodamine WT, and injection of the tracer material, rhodamine WT, and simultaneous RGB imaging.

또한, 본 발명에서 상기 단계(b)는 영상좌표 추적 모듈이 영상의 첫번째 프레임에서 각 지상기준점에 해당하는 영상좌표를 중심으로 일정영역의 부분영상을 추출하고, 이후 영상의 각 프레임에 대한 영상에서도 첫번째 프레임에서 부분영상이 추출된 동일한 영역에 대해 부분영상을 추출하여, 다음의 수학식,In addition, in the present invention, in the step (b), the image coordinate tracking module extracts a partial image of a certain area around the image coordinates corresponding to each ground reference point from the first frame of the image, and then also in the image for each frame of the image. By extracting the partial image for the same region from which the partial image was extracted in the first frame, the following equation,

Figure 112019103230508-pat00001
Figure 112019103230508-pat00001

(여기서, NCC는 정규상호상관계수, I는 첫번째 프레임에서 추출된 부분영상의 화소강도, i와 j는 첫번째 프레임에서 추출된 부분영상에 대한 영상좌표, Itmp는 계산하고자 하는 프레임에서 추출된 부분영상의 화소강도, △X와 △Y는 두 부분영상 간의 이동거리,

Figure 112019103230508-pat00002
는 첫번째 프레임에서 추출된 부분영상의 평균 화소강도,
Figure 112019103230508-pat00003
는 계산하고자 하는 프레임에서 추출된 부분영상의 평균 화소강도)으로부터 첫번째 프레임에서 추출한 부분영상과 각 프레임에서 추출된 부분영상 간의 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색함으로써 각 지상기준점의 영상좌표 이동거리를 계산하는 것이다.(Here, NCC is the normal correlation coefficient, I is the pixel intensity of the partial image extracted from the first frame, i and j are the image coordinates of the partial image extracted from the first frame, and I tmp is the extracted part from the frame to be calculated. Pixel intensity of the image, △X and △Y are the moving distance between two partial images,
Figure 112019103230508-pat00002
Is the average pixel intensity of the partial image extracted from the first frame,
Figure 112019103230508-pat00003
Is the image of each ground reference point by searching for the moving distance of the point with the highest normal correlation between the partial image extracted from the first frame and the partial image extracted from each frame from the average pixel intensity of the partial image extracted from the frame to be calculated. It is to calculate the coordinate travel distance.

또한, 본 발명은 상기 단계(c)에서 좌표변환 모듈이 RGB 영상자료의 모든 영상좌표의 화소강도를 UTM 좌표계상의 화소강도에 투영하기 위해, 구축된 일정개수의 상기 좌표쌍과 다음의 수학식,In addition, in the present invention, in the step (c), in order for the coordinate conversion module to project the pixel intensity of all image coordinates of the RGB image data onto the pixel intensity of the UTM coordinate system, the established coordinate pairs and the following equations,

Figure 112019103230508-pat00004
Figure 112019103230508-pat00004

(여기서, x와 y는 UTM 좌표, X와 Y는 영상좌표, P1~P8은 변환계수)을 이용하여 변환계수를 산출하고, 산출된 변환계수와 함께 모든 프레임에서의 영상좌표(X,Y)를 상기 수학식에 대입하여 모든 프레임에서의 UTM 좌표(x,y)를 산출한다.(Where x and y are UTM coordinates, X and Y are image coordinates, P 1 ~ P 8 are conversion factors) to calculate the transformation coefficient, and the image coordinates (X, By substituting Y) into the above equation, UTM coordinates (x,y) in all frames are calculated.

또한, 본 발명에서 농도측정기기의 설치 위치에 해당하는 UTM 좌표에서 화소강도를 추출한 후 추출한 화소강도와 동일 시간에 농도측정기기가 측정한 추적자물질의 농도값(목표값) 간의 관계를 나타내고 농도측정기기가 설치되지 않은 지점의 추적자물질의 농도를 영상의 화소강도를 통해 산출할 수 있는 상기 단계(d)의 인공신경망에 대한 수학식은,In addition, in the present invention, the relationship between the pixel intensity extracted after extracting the pixel intensity from the UTM coordinate corresponding to the installation location of the concentration measuring device and the concentration value (target value) of the tracer material measured by the concentration measuring device at the same time is indicated, and the concentration measuring device is Equation for the artificial neural network of step (d) that can calculate the concentration of the tracer material at the point where it is not installed through the pixel intensity of the image is,

Figure 112019103230508-pat00005
Figure 112019103230508-pat00005

(여기서, xi는 인공신경망의 입력자료, DN은 로다민 WT가 유입된 상태에서 취득된 영상의 화소강도, DN0는 로다민 WT가 유입되기 전 취득된 영상의 기저 화소강도, DNs는 영상 내에 PTFE 패널에서의 화소강도, R,G,B 는 각각 디지털영상의 밴드, Hj는 은닉 뉴런의 값, Wij는 입력층과 은닉층 간의 가중인자, bj는 은닉 뉴런의 편향인자, δj는 은닉층의 활성함수,

Figure 112019103230508-pat00006
은 추적자물질의 농도 추정치(출력값), Wjk는 은닉층과 출력층 간의 가중인자, bk는 출력층의 편향인자)이되, 인공신경망의 입력자료는 영상 내 PTFE 패널에서 취득된 태양광 참조값으로 나누어 정규화시킨다.(Where x i is the input data of the artificial neural network, DN is the pixel intensity of the image acquired with the rhodamine WT introduced, DN 0 is the base pixel intensity of the image acquired before the rhodamine WT was introduced, and DN s is Pixel intensity in the PTFE panel in the image, R, G, B are the bands of digital images, H j is the value of the hidden neuron, W ij is the weighting factor between the input layer and the hidden layer, b j is the deflection factor of the hidden neuron, δ j is the activation function of the hidden layer,
Figure 112019103230508-pat00006
Is the estimated concentration of tracer material (output value), W jk is the weighting factor between the hidden layer and the output layer, b k is the deflection factor of the output layer), and the input data of the artificial neural network is normalized by dividing it by the solar reference value obtained from the PTFE panel in the image. .

또한, 본 발명에서는 상기 인공신경망을 학습시키기 위해 입력자료(농도측정기기 위치에서 영상좌표의 정규화된 화소강도)와 목표값으로 구성된 일정개수의 자료쌍을 구축하고 그 자료쌍 중 일부를 훈련자료로 분할하여 입력하되, 가중인자와 각 뉴런의 편향인자는 임의값을 초기값으로 설정하여 인공신경망의 연산을 수행할 경우 발생하는 오차는 모든 훈련자료에 대한 누적제곱오차인 다음의 수학식,In addition, in the present invention, in order to train the artificial neural network, a certain number of data pairs consisting of input data (normalized pixel intensity of the image coordinate at the concentration measuring device location) and a target value are constructed, and some of the data pairs are used as training data. Divide and input, but the error that occurs when the artificial neural network operation is performed by setting a random value as an initial value for the weighting factor and the bias factor of each neuron is the following equation, which is the cumulative square error for all training data,

Figure 112019103230508-pat00007
Figure 112019103230508-pat00007

(여기서, E는 누적제곱오차, M은 전체 훈련자료 수,

Figure 112019103230508-pat00008
은 m번째 훈련자료에 대한 추적자물질의 농도 추정값, C0(m)은 농도측정기기에 의해 측정된 m번째 추적자물질의 농도값)으로 평가하고, 경사하강법을 이용하여 누적제곱오차가 최소가 되도록 가중인자와 편향인자를 보정한다.(Where E is the cumulative square error, M is the total number of training data,
Figure 112019103230508-pat00008
Is the estimated value of the tracer substance concentration for the m-th training data, C 0 (m) is the concentration value of the m-th tracer substance measured by the concentration measuring device), and the cumulative square error is minimum using the gradient descent method. Correct the weighting factor and bias factor as much as possible.

이상에서 살펴본, 본 발명인 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법은 소수의 지점에서 접촉식 농도측정기기에 의해 측정된 농도값과 해당 농도값에 대한 RGB 영상의 화소강도 간 관계를 인공신경망을 통해 구축함으로써 접촉식 농도측정기기가 미설치된 영역에 대한 농도분포를 고해상도의 RGB 비디오 영상자료로부터 시공간적으로 추출이 가능하도록 하여, 종래의 추적자실험법에서 관측이 어려웠던 추적자물질의 공간적 분포를 취득할 수 있게 함으로써 자연하천에서 오염물질의 혼합 거동에 대해 더욱 정밀한 분석을 가능하게 하는 효과가 있다.The two-dimensional stream mixing behavior measurement method using the RGB image acquired from the unmanned aerial vehicle of the present invention, as discussed above, is the density value measured by the contact density measuring device at a few points and the pixel intensity of the RGB image for the density value. By establishing the relationship between them through an artificial neural network, it is possible to extract the concentration distribution in the area where the contact-type concentration measuring device is not installed from high-resolution RGB video image data, so that the spatial distribution of tracer material, which was difficult to observe in the conventional tracer test method. It is possible to obtain a more precise analysis on the mixing behavior of pollutants in natural rivers.

도 1 은 본 발명에 따른 2차원 하천혼합거동 계측 방법의 전체 흐름도를 나타낸 도면.
도 2 는 본 발명에 따른 2차원 하천혼합거동 계측 방법이 수행되는 일실시예인 실험수로를 나타낸 도면.
도 3 은 본 발명에 따른 2차원 하천혼합거동 계측 방법의 개념을 나타낸 모식도.
도 4 는 본 발명에 따른 2차원 하천혼합거동 계측 방법에서 지상기준점의 영상좌표를 추적하는 과정을 나타낸 도면.
도 5 는 본 발명에 따른 2차원 하천혼합거동 계측 방법에서 영상좌표계를 UTM 좌표계로 변환한 결과를 나타낸 도면.
도 6 은 본 발명에 이용되는 인공신경망 구조를 나타낸 도면.
도 7 은 본 발명에 따른 2차원 하천혼합거동 계측 방법에서 영상의 화소강도로부터 변환된 농도값과 측정된 농도값을 비교한 그래프를 나타낸 도면.
도 8 은 본 발명에 따른 2차원 하천혼합거동 계측 방법에서 영상의 화소강도로부터 변환된 농도의 공간적 분포를 나타낸 도면.
도 9 는 본 발명에 따른 2차원 하천혼합거동 계측 방법과 관련된 시스템의 일실시예를 나타낸 구성도.
1 is a view showing an overall flowchart of a method for measuring a two-dimensional river mixing behavior according to the present invention.
2 is a view showing an experimental channel, which is an embodiment in which a method for measuring a two-dimensional river mixing behavior according to the present invention is performed.
Figure 3 is a schematic diagram showing the concept of a two-dimensional river mixing behavior measurement method according to the present invention.
4 is a view showing a process of tracking the image coordinates of the ground reference point in the method for measuring the two-dimensional river mixing behavior according to the present invention.
5 is a view showing a result of converting an image coordinate system to a UTM coordinate system in a method for measuring a two-dimensional stream mixing behavior according to the present invention.
6 is a diagram showing the structure of an artificial neural network used in the present invention.
7 is a view showing a graph comparing a concentration value converted from a pixel intensity of an image and a measured concentration value in a method for measuring a two-dimensional stream mixing behavior according to the present invention.
8 is a diagram showing a spatial distribution of concentration converted from pixel intensity of an image in a method for measuring a two-dimensional stream mixing behavior according to the present invention.
9 is a block diagram showing an embodiment of a system related to a method for measuring a two-dimensional river mixing behavior according to the present invention.

상기와 같이 구성된 본 발명의 바람직한 실시예를 첨부된 도면을 참조하면서 상세히 설명하면 다음과 같다. 첨부된 도면들 및 이를 참조한 설명은 본 발명에 관하여 당해 기술 분야에서 통상의 지식을 가진 자들이 쉽게 이해할 수 있도록 하기 위해 예시된 것이며, 본 발명의 사상 및 범위를 한정하려는 의도로 제시된 것은 아님에 유의하여야 할 것이다.A preferred embodiment of the present invention configured as described above will be described in detail with reference to the accompanying drawings. Note that the accompanying drawings and the description with reference thereto are illustrated in order to be easily understood by those of ordinary skill in the art with respect to the present invention, and are not intended to limit the spirit and scope of the present invention. You will have to do it.

무인항공체에 대한 지속적인 기술 개발 및 보급에 의해 일반인들에게 상용 무인항공체의 이용이 대중화되는 추세이며, 다양한 산업분야에서 활용방안이 활발히 모색되고 있다. 근래의 상용 무인항공체는 고해상도의 RGB 디지털카메라가 장착되고 있으며, RGB 디지털 카메라는 사람의 시각능력으로 인지 가능한 가시광을 빛의 파장범위에 따라 3개의 밴드로 구분된 화소강도로 기록한다. 무인항공체의 이용은 시공간적으로 고해상도의 디지털 영상을 원하는 시간 및 장소에서 저비용으로 취득할 수 있는 장점을 가진다. 이하 본 발명은 형광물질을 추적자물질로 사용하는 추적자실험법을 수행하는 동안에 무인항공체를 이용하여 RGB 디지털 영상을 취득하고, 추적자물질에 대한 영상자료를 인공신경망 기법을 이용하여 고해상도의 시공간적 농도자료로 변환하는 방법이다.The use of commercial unmanned aerial vehicles is becoming popular among the general public through continuous technology development and dissemination for unmanned aerial vehicles, and applications are being actively sought in various industrial fields. Commercial unmanned aerial vehicles in recent years are equipped with high-resolution RGB digital cameras, and RGB digital cameras record visible light that can be perceived by human visual ability as pixel intensity divided into three bands according to the wavelength range of light. The use of unmanned aerial vehicles has the advantage of being able to acquire high-resolution digital images in space and time at a desired time and place at low cost. Hereinafter, the present invention acquires an RGB digital image using an unmanned aerial vehicle while performing a tracer experiment method using a fluorescent substance as a tracer substance, and converts the image data on the tracer substance into high-resolution spatiotemporal density data using an artificial neural network technique. This is how to convert.

도 9는 본 발명에 따른 2차원 하천혼합거동 계측 방법과 관련된 시스템의 일실시예를 나타낸 구성도로, 하천혼합거동 계측 장치(10)는 취득된 RGB 디지털 영상을 인공신경망 기법을 이용하여 디지털 영상의 화소강도를 농도값으로 변환함으로써 시공간적으로 고해상도의 하천 혼합과정을 계측하는 것으로, 영상의 첫번째 프레임에서 추출한 부분영상과 각 프레임에서 추출된 부분영상 간의 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색하여 영상의 첫번째 프레임에 대한 지상기준점의 영상좌표를 기준으로 이후 프레임에 대한 지상기준점의 영상좌표를 추출하는 영상좌표 추적 모듈(11), 영상 내의 모든 화소강도를 UTM 좌표계 상에 투영하는 좌표변환 모듈(12), 농도측정기기에 의해 측정된 추적자물질의 농도값과 RGB 영상의 화소강도를 이용하여 인공신경망을 구축하고 RGB영상의 화소강도를 추적자물질의 농도값으로 변환하는 인공신경망 구축 모듈(13)을 포함한다. 즉, 상기 영상좌표 추적 모듈(11), 좌표변환 모듈(12) 및 인공신경망 구축 모듈(13)은 본 발명이 컴퓨터상에서 수행되도록 하기 위한 기술적 수단으로 영상좌표 추적부, 좌표변환부 및 인공신경망 구축부로 각각 명명할 수도 있다.9 is a block diagram showing an embodiment of a system related to a method for measuring a two-dimensional stream mixing behavior according to the present invention. The stream mixing behavior measuring apparatus 10 converts the acquired RGB digital image into a digital image using an artificial neural network technique. By converting the pixel intensity into a density value, it measures the spatiotemporal and high-resolution river mixing process, and searches the moving distance of the point with the highest normal correlation coefficient between the partial image extracted from the first frame of the image and the partial image extracted from each frame. The image coordinate tracking module 11 extracts the image coordinates of the ground reference point for subsequent frames based on the image coordinates of the ground reference point for the first frame of the image, and a coordinate conversion module that projects all pixel intensities in the image onto the UTM coordinate system. (12), an artificial neural network construction module that constructs an artificial neural network using the concentration value of the tracer substance measured by the concentration measuring device and the pixel intensity of the RGB image, and converts the pixel intensity of the RGB image into the concentration value of the tracer substance (13) ). That is, the image coordinate tracking module 11, the coordinate transformation module 12, and the artificial neural network construction module 13 are technical means for implementing the present invention on a computer, and construct an image coordinate tracking unit, a coordinate conversion unit, and an artificial neural network. You can also name each by wealth.

상기 하천혼합거동 계측 장치(10)는 서버, 데스크톱, 노트북 또는 휴대용 단말기 등으로, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측을 수행하기 위한 소프트웨어를 저장 포함한다.The stream mixing behavior measurement device 10 includes a server, a desktop, a laptop computer, a portable terminal, or the like, and stores software for measuring a two-dimensional stream mixing behavior using an RGB image acquired from an unmanned aerial vehicle.

더불어 상기 하천혼합거동 계측 장치(10)에서 연산되거나 입출력되는 자료는 별도의 저장 장치(20)에 저장되도록 하는 것이 좋다. 상기 하천혼합거동 계측 장치(10)는 저장 장치(20)를 포함할 수도 있다.In addition, it is preferable to store the data calculated or input/output by the river mixing behavior measurement device 10 in a separate storage device 20. The stream mixing behavior measurement device 10 may include a storage device 20.

상기와 같이 이루어진 본 발명에 따른 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법에 관하여 도 1의 흐름도를 참조하여 설명하면 다음과 같다.A method for measuring a two-dimensional river mixing behavior using an RGB image acquired from an unmanned aerial vehicle according to the present invention made as described above will be described with reference to the flowchart of FIG. 1.

먼저, 종래의 추적자실험법 수행 및 무인항공체를 이용하여 RGB 영상자료를 취득하는 단계로, 로다민 WT 형광물질을 이용하는 종래의 접촉식 기반의 추적자 실험법을 수행함과 동시에 하천의 계측구간 주변부에 지상기준점을 설치하고 지상기준점의 UTM 좌표 측량 및 태양광에 대한 참조 화소강도를 얻기 위한 폴리테트라플루오로에틸렌(PTFE) 패널을 설치하게 된다(S10).First, performing a conventional tracer test method and acquiring RGB image data using an unmanned aerial vehicle. A ground reference point at the periphery of the measurement section of the river while performing the conventional contact-based tracer test method using rhodamine WT fluorescent material. And a polytetrafluoroethylene (PTFE) panel to obtain reference pixel intensity for sunlight and UTM coordinate measurement of the ground reference point (S10).

도 2는 본 발명에 따른 2차원 하천혼합거동 계측 방법이 수행되는 일실시예인 실험수로를 나타낸 것으로, 형광물질인 로다민 WT 20%용액이 추적자물질로 이용되며, 흐름 내에 유입된 로다민 WT의 농도는 3개의 횡단면에 각각 5개의 농도측정기기를 설치하여 총 15지점에서 측정하고, 태양광에 대한 화소강도의 참조값을 얻기 위해 1개의 폴리테트라플루오로에틸렌(PTFE) 패널과 화소강도의 실제 좌표계 상 투영을 위한 12개의 지상기준점이 추가적으로 설치되며, 각 지상기준점의 실제 좌표는 RTK-GPS를 이용하여 UTM 좌표계로 측량한다.FIG. 2 shows an experimental channel in which a two-dimensional stream mixing behavior measurement method according to the present invention is performed, in which a 20% solution of rhodamine WT, a fluorescent material, is used as a tracer material, and of rhodamine WT introduced into the flow. The concentration is measured at a total of 15 points by installing 5 concentration measuring devices on each of the 3 cross-sections, and one polytetrafluoroethylene (PTFE) panel and the actual coordinate system of the pixel intensity to obtain a reference value of the pixel intensity against sunlight. Twelve ground reference points are additionally installed for image projection, and the actual coordinates of each ground reference point are surveyed with a UTM coordinate system using RTK-GPS.

참고로, 도 2의 실험수로는 경북 안동시에 위치한 한국건설기술연구원의 하천실험센터 A3실험수로로서, 직선길이가 약 595 m, 하폭이 약 11 m에 해당하며, 세 종류의 사행수로가 연속적으로 연결된 실규모 야외 실험 개수로이고, 이 중 본 발명의 일실시예의 실험은 사행도 1.7에 해당하는 구간에서 수행되었으며, 실험 시 수리조건은 유량 2.02 ㎥/s, 평균유속 0.63 m/s, 평균수심 0.61 m, 평균하폭 6.29 m로 측정되었는데, 후술하는 2차원 하천혼합거동 계측과정에는 상기 실험수로에서 수행된 실험자료를 이용하였다.For reference, the experimental waterway in Fig. 2 is the river test center A3 test waterway of the Korea Institute of Construction Technology, located in Andong-si, Gyeongsangbuk-do. It is a connected full-scale outdoor experiment open channel, of which the experiment of one embodiment of the present invention was performed in the section corresponding to the meandering degree 1.7, and the repair conditions during the experiment were flow rate 2.02 ㎥/s, average flow rate 0.63 m/s, and average depth It was measured to be 0.61 m and an average lower width of 6.29 m, and the experimental data performed in the experimental channel were used in the measurement process of the two-dimensional river mixing behavior described later.

본 발명에서는 추적자물질을 이용한 종래의 추적자실험법의 수행과 동시에 무인항공체를 이용하여 RGB 디지털 비디오 영상을 녹화하며, 실험수로 구간 전범위를 영상 내에 기록하기 위해 무인항공체는 지면으로부터 약 65 m 상공에서 비행한다. 또한, 본 발명에서는 무인항공체에 장착된 RGB 디지털 카메라의 촬영 설정은 주변 광량으로부터 화소강도가 자동적으로 보정되는 것을 방지하기 위해 수동으로 설정됨이 바람직하며, 영상 내 폴리테트라플루오로에틸렌(PTFE) 패널에 대한 화소강도가 RGB 디지털 영상에서 기록가능한 최대 화소강도의 범위를 초과하지 않도록 ISO값 100, 셔터스피드 1/2000초로 세팅한다. 상기 RGB 디지털 영상은 3,840×2,160의 화소로 초당 24 프레임의 비디오 영상으로 촬영하고, 무인항공체에 의해 촬영된 RGB 비디오영상은 987초 동안 촬영되며, 총 프레임의 수는 23,688이다. 도 3은 이러한 종래의 추적자실험법과 동시에 무인항공체를 이용한 RGB 영상 취득에 관한 전반적인 개념을 나타낸 모식도이다.In the present invention, RGB digital video images are recorded using an unmanned aerial vehicle at the same time as performing the conventional tracer test method using a tracer material, and the unmanned aerial vehicle is approximately 65 m from the ground in order to record the entire range of the experimental channel section in the image. Fly in the air. In addition, in the present invention, the shooting setting of the RGB digital camera mounted on the unmanned aerial vehicle is preferably set manually to prevent the pixel intensity from being automatically corrected from the amount of ambient light, and polytetrafluoroethylene (PTFE) in the image The ISO value of 100 and the shutter speed of 1/2000 second are set so that the pixel intensity of the panel does not exceed the range of the maximum pixel intensity that can be recorded in an RGB digital image. The RGB digital image is photographed as a video image of 24 frames per second with 3,840×2,160 pixels, and the RGB video image photographed by the unmanned aerial vehicle is photographed for 987 seconds, and the total number of frames is 23,688. 3 is a schematic diagram showing the general concept of RGB image acquisition using an unmanned aerial vehicle at the same time as the conventional tracer test method.

다음으로, RGB영상의 화소강도를 UTM 좌표계 상에 투영하는 단계로, 무인항공체에 장착된 RGB 디지털 카메라를 이용하여 실험구간 내 형광물질과 상기 지상기준점이 함께 영상 내에 존재하도록 RGB 비디오 영상을 취득하고 정규상호상관법을 이용하여 RGB 비디오 영상의 각 프레임에서 각 지상기준점에 대한 영상좌표를 추적하고(S20), 상기에서 추적한 지상기준점의 각 프레임에서의 영상좌표와 기측량된 지상기준점의 실제 좌표로 구성된 각 프레임에서의 좌표쌍을 이용하여 원근 투영변환식을 구축하고, 구축된 원근 투영변환식을 이용하여 각 프레임에서의 영상좌표에 대한 디지털영상의 화소강도를 실제 좌표계의 화소강도로 투영한다(S30).Next, the pixel intensity of the RGB image is projected onto the UTM coordinate system. Using an RGB digital camera mounted on an unmanned aerial vehicle, an RGB video image is acquired so that the fluorescent material in the experiment section and the ground reference point exist in the image together. Then, the image coordinates for each ground reference point are tracked in each frame of the RGB video image using the normal cross-correlation method (S20), and the image coordinates in each frame of the ground reference point tracked above and the actual measured ground reference point are The perspective projection transformation equation is constructed using the coordinate pairs in each frame composed of coordinates, and the pixel intensity of the digital image for the image coordinates in each frame is projected to the pixel intensity of the actual coordinate system using the constructed perspective projection transformation equation ( S30).

무인항공체에 의해 촬영된 비디오영상에서 실험수로 및 주변 객체들은 무인항공체의 진동, 바람의 영향 및 GPS위치오차에 의해 영상의 각 프레임 내에서 임의적으로 이동하게 되므로 각 농도측정기기의 위치에서 화소강도값을 용이하게 추출하기 위해서는 영상 내 객체의 임의 이동을 특정 위치에 고정할 필요가 있으며, 혼합과정이 진행 중인 추적자 분포의 공간적 축척 및 이송 속도 등을 계산하기 위해 영상좌표를 미터법에 따른 UTM 좌표로 변환할 필요가 있다.In the video image captured by the unmanned aerial vehicle, the experimental waterway and surrounding objects are randomly moved within each frame of the image due to the vibration, wind, and GPS position error of the unmanned aerial vehicle. In order to easily extract the pixel intensity value, it is necessary to fix the arbitrary movement of the object in the image at a specific position. In order to calculate the spatial scale and feed rate of the tracer distribution in the mixing process, the image coordinates are converted to UTM according to the metric system. It needs to be converted to coordinates.

따라서, 본 발명에서는 첫번째 프레임에 대한 지상기준점의 영상좌표를 기준으로 이 후 프레임에 대한 지상기준점의 영상좌표의 추출을 자동화한다. 영상의 첫번째 프레임 즉, 로다민 WT가 주입되는 시간에 해당하는 영상의 프레임에서 각 지상기준점(본 발명의 일실시예에서 지상기준점수: 12개)에 해당하는 영상좌표(참고로 영상좌표는 화소와 대응될수 있음)를 중심으로 101×101 화소의 부분영상을 추출하고, 이 후 영상의 각 프레임(본 발명의 일실시예에서 총 프레임수: 23,688)에 대한 영상에서도 첫번째 프레임에서 부분영상이 추출된 동일한 영상좌표영역에 대해 부분영상을 추출한다. 2차원 정규상호상관법을 통해 첫번째 프레임에서 추출한 부분영상과 각 프레임에서 추출된 부분영상 간의 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색함으로써 각 지상기준점의 영상좌표 이동량을 계산할 수 있으며, 2차원 정규상호상관법의 수학식은 다음의 수학식 1과 같다.Accordingly, the present invention automates the extraction of the image coordinates of the ground reference point for subsequent frames based on the image coordinates of the ground reference point for the first frame. In the first frame of the image, that is, the frame of the image corresponding to the injection time of the rhodamine WT, the image coordinates corresponding to each ground reference point (the number of ground reference points in an embodiment of the present invention: 12) (for reference, the image coordinate is a pixel A partial image of 101×101 pixels is extracted centering on (may correspond to), and then a partial image is extracted from the first frame in the image for each frame of the image (total number of frames: 23,688 in an embodiment of the present invention). A partial image is extracted for the same image coordinate area. The image coordinate movement amount of each ground reference point can be calculated by searching the moving distance of the point with the highest normal correlation correlation between the partial image extracted from the first frame and the partial image extracted from each frame through the 2D normal correlation method. The equation of the dimensional normal intercorrelation method is shown in Equation 1 below.

Figure 112019103230508-pat00009
Figure 112019103230508-pat00009

여기서, NCC는 정규상호상관계수, I는 첫번째 프레임에서 추출된 부분영상의 화소강도, i와 j는 첫번째 프레임에서 취득된 부분영상(본 발명의 일실시예에서 101×101)에 대한 영상좌표, Itmp는 계산하고자 하는 프레임에서 추출된 부분영상의 화소강도, △X와 △Y는 두 부분영상 간의 이동거리,

Figure 112019103230508-pat00010
는 첫번째 프레임에서 추출된 부분영상의 평균 화소강도,
Figure 112019103230508-pat00011
는 계산하고자 하는 프레임에서 추출된 부분영상의 평균 화소강도이다.Here, NCC is the normal correlation coefficient, I is the pixel intensity of the partial image extracted from the first frame, i and j are the image coordinates for the partial image (101×101 in the embodiment of the present invention) acquired in the first frame, I tmp is the pixel intensity of the partial image extracted from the frame to be calculated, △X and △Y are the moving distance between the two partial images,
Figure 112019103230508-pat00010
Is the average pixel intensity of the partial image extracted from the first frame,
Figure 112019103230508-pat00011
Is the average pixel intensity of the partial image extracted from the frame to be calculated.

2차원 정규상호상관계수의 결과는 비교되는 두 부분영상 간 이동거리에 대한 상호상관정도를 나타내며, 가장 높은 상호상관계수를 나타내는 이동거리는 비교되는 두 프레임 간 지상기준점의 영상좌표상 이동거리에 해당한다. 첫번째 프레임에서 각 지상기준점에 대한 영상좌표를 알고 있으므로, 계산하고자 하는 프레임에서의 지상기준점에 대한 영상좌표는 첫번째 프레임에서의 지상기준점 영상좌표에서 정규상호상관법에 의해 탐색된 이동거리를 더하여 구할 수 있다.The result of the two-dimensional normal correlation coefficient indicates the degree of cross-correlation for the moving distance between the two partial images being compared, and the moving distance indicating the highest mutual correlation coefficient corresponds to the moving distance in the image coordinates of the ground reference point between the two frames being compared. . Since the image coordinates for each ground reference point in the first frame are known, the image coordinates for the ground reference point in the frame to be calculated can be obtained by adding the moving distance searched by the normal cross-correlation method from the ground reference point image coordinates in the first frame. have.

이에 영상좌표 추적 모듈(11)이 수학식 1을 이용하여 첫번째 프레임에서 추출한 부분영상과 각 프레임에서 추출된 부분영상 간의 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색하고, 이러한 이동거리의 탐색은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 직접 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 수학식 1을 포함하면서 하천혼합거동 계측 장치(10) 또는 저장 장치(20)에 저장되어 영상좌표 추적 모듈(11)이 저장 장치(20)에 입력저장된 상기 프로그램을 이용하여 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색하게 되는 것이다.Accordingly, the image coordinate tracking module 11 uses Equation 1 to search the moving distance of the point with the highest normal correlation coefficient between the partial image extracted from the first frame and the partial image extracted from each frame, and search for such a moving distance. Is a program coded with an algorithm directly through a programming language to be finally executed by a computer. In other words, such a program includes the above equation (1) and is stored in the river mixing behavior measurement device 10 or the storage device 20 The coordinate tracking module 11 searches for a moving distance of a point with the highest normal correlation coefficient using the program input and stored in the storage device 20.

상술한 바와 같이 RGB 디지털 비디오 영상의 각 프레임에서 총 12개의 지상기준점에 대한 영상좌표를 추적하여, 해당 지상기준점의 UTM 좌표계와 함께 12개의 좌표쌍(12개의 지상기준점에서 측량한 UTM 좌표(x,y), 각 지상기준점에 해당하는 영상좌표(X,Y))을 구축한다. 본 발명에서는 영상 내의 모든 화소강도(각 영상좌표에 화소강도가 속성 데이터로 포함되어 있음)를 UTM 좌표계 상에 투영하기 위해 원근 투영변환을 이용하며, 이에 대한 수학식은 다음의 수학식 2와 같다.As described above, by tracking the image coordinates for a total of 12 ground reference points in each frame of the RGB digital video image, 12 coordinate pairs (UTM coordinates (x, measured from 12 ground reference points) together with the UTM coordinate system of the corresponding ground reference point) are tracked. y), the image coordinates (X,Y) corresponding to each ground reference point) are constructed. In the present invention, perspective projection transformation is used to project all pixel intensities in an image (pixel intensity is included as attribute data in each image coordinate) onto the UTM coordinate system, and the equation for this is as Equation 2 below.

Figure 112019103230508-pat00012
Figure 112019103230508-pat00012

여기서, x와 y는 UTM 좌표, X와 Y는 영상좌표, P1~P8은 변환계수이다. 각 프레임에서의 변환계수는 상기 과정에서 수집된 각 프레임에서의 12개의 좌표쌍(지상기준점의 각 프레임에서의 영상좌표는 정규상호상관계수를 통해 알 수 있고 지상기준점의 UTM 좌표는 실제 측량된 좌표이므로 알고 있음)을 위 수학식 2에 대입하여 구할 수 있게 된다. 여기서, 12개의 각 지상기준점에 대한 UTM 좌표값은 모든 프레임에 대해 일정한 값이지만, 상술한 바와 같이 무인항공체의 임의적 이동에 의해 취득된 영상에서의 각 지상기준점에 해당하는 영상좌표는 각 프레임별로 변동하는 값이 된다.Here, x and y are UTM coordinates, X and Y are image coordinates, and P 1 to P 8 are transformation coefficients. The transformation coefficient in each frame is 12 pairs of coordinates in each frame collected in the above process (the image coordinates of each frame of the ground reference point can be known through the normal correlation coefficient, and the UTM coordinates of the ground reference point are actually measured coordinates. Is known) can be obtained by substituting in Equation 2 above. Here, the UTM coordinate values for each of the 12 ground reference points are constant values for all frames, but as described above, the image coordinates corresponding to each ground reference point in the image acquired by the arbitrary movement of the unmanned aerial vehicle are each frame. It becomes a variable value.

결국 지상기준점 뿐만 아니라 각 프레임에서의 변환계수를 구하였으므로 변환계수와 함께 모든 프레임에서의 영상좌표(X,Y)를 상기 수학식 2에 대입하면 모든 프레임에서의 UTM 좌표(x,y)를 알 수 있게 된다. 즉, 상기 수학식 2를 이용하여 특정 영상좌표의 화소강도는 UTM 좌표계상의 화소강도로 투영된다. 도 4는 지상기준점의 영상좌표를 각 프레임에서 추적하는 과정을 나타낸 것이고, 도 5는 무인항공체에 의해 촬영된 RGB 디지털영상의 영상좌표계가 UTM 좌표계 상에 투영된 결과를 나타낸 것이다.In the end, since the transformation coefficients in each frame as well as the ground reference point were obtained, substituting the image coordinates (X,Y) in all frames together with the transformation coefficients into Equation 2, the UTM coordinates (x,y) in all frames are known. You will be able to. That is, using Equation 2, the pixel intensity of a specific image coordinate is projected to the pixel intensity of the UTM coordinate system. 4 shows a process of tracking the image coordinates of the ground reference point in each frame, and FIG. 5 shows the result of projecting the image coordinate system of the RGB digital image captured by the unmanned aerial vehicle onto the UTM coordinate system.

즉, 본 발명에서는 좌표변환 모듈(12)이 상기 수학식 2를 이용하여 영상 내의 모든 화소강도를 UTM 좌표계 상에 투영하고, 이러한 투영 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 직접 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 수학식 2를 포함하면서 하천혼합거동 계측 장치(10) 또는 저장 장치(20)에 저장되어 좌표변환 모듈(12)이 저장 장치(20)에 입력저장된 상기 프로그램을 이용하여 영상 내의 모든 화소강도를 UTM 좌표계 상에 투영하게 되는 것이다.That is, in the present invention, the coordinate conversion module 12 projects all the pixel intensities in the image onto the UTM coordinate system using Equation 2, and this projection process is carried out by an algorithm directly through a programming language in order to be finally performed by a computer. It is a coded program, in other words, such a program is stored in the river mixed behavior measurement device 10 or the storage device 20 while including the equation (2), and the coordinate conversion module 12 is input and stored in the storage device 20. All pixel intensities in the image are projected onto the UTM coordinate system using a program.

그 다음으로, 접촉식 농도측정기기에 의해 측정된 농도값과 RGB영상의 화소강도를 이용하여 인공신경망 모형을 구축하는 단계로, 접촉식 농도측정기기가 설치된 지점의 실제 좌표점에서 R, G 그리고 B 밴드의 각 화소강도를 추출하여 태양광 참조 화소강도로 정규화시키고, 동일시간에 접촉식 농도측정기기가 측정한 농도값과 함께 인공신경망을 구축 및 훈련시킨 후, 훈련된 인공신경망을 이용하여 각 프레임에서의 영상 전체의 화소강도를 농도값으로 변환한다(S40).Next, the step of constructing an artificial neural network model using the density value measured by the contact density measuring device and the pixel intensity of the RGB image, R, G, and B at the actual coordinate points of the point where the contact density measuring device is installed. After extracting the intensity of each pixel of the band and normalizing it to the reference pixel intensity of sunlight, constructing and training an artificial neural network with the concentration value measured by a contact density measuring device at the same time, and then using the trained artificial neural network in each frame. The pixel intensity of the entire image of is converted into a density value (S40).

본 발명의 일실시예에서는 종래의 추적자실험법을 수행하는 동안 촬영된 RGB 디지털 비디오영상은 추적물질이 혼합과정을 거치며 수송되는 과정을 1/24초의 시간해상도로 영상의 각 프레임에 기록한다. 영상의 특정 지점에 대한 각 R,G,B 밴드의 각 화소강도는 실험구간의 기저수질, 수심 및 하상재료에 따라 공간적으로 상이한 값을 가진다. 로다민 WT의 유입은 기저수질의 공간적 변화를 야기하며, 이로 인해 로다민 WT가 유입된 지점의 화소강도는 로다민 WT의 유입 전 화소강도와 차이를 보이게 되고, 변화된 화소강도의 차이는 로다민 WT의 농도와 상관관계를 가진다. 그러나 로다민 WT의 농도와 화소강도 간의 관계는 비선형적이며 공간적으로 비동질적인 관계를 가지므로 단순회귀식으로 표현하기에는 어려움이 따른다.In one embodiment of the present invention, the RGB digital video image captured during the conventional tracer test method is recorded in each frame of the image at a time resolution of 1/24 sec. Each pixel intensity of each R, G, B band for a specific point in the image has a spatially different value depending on the basal water quality, water depth and bed material of the experimental section. The inflow of rhodamine WT causes a spatial change in the quality of the basal water, and as a result, the pixel intensity at the point where the rhodamine WT is introduced is different from the pixel intensity before the inflow of rhodamine WT, and the difference in the changed pixel intensity is rhodamine. Correlated with the concentration of WT. However, since the relationship between the concentration of rhodamine WT and the pixel intensity is nonlinear and spatially non-homogeneous, it is difficult to express it with a simple regression equation.

따라서, 본 발명에서는 로다민 WT의 농도와 화소강도 간의 관계를 구축하기 위해 인공신경망 모형을 활용한다. 접촉식 농도측정기기의 설치 위치에 해당하는 UTM 좌표에서 화소강도를 추출한 후 추출한 화소강도와 동일 시간에 접촉식 농도측정기기가 측정한 추적자물질의 농도값 간의 관계를 나타낼 수 있는 인공신경망을 구축하면 영상 내에서 농도측정기기가 설치되지 않은 지점의 추적자물질의 농도를 영상의 화소강도를 통해 측정이 가능하다.Therefore, in the present invention, an artificial neural network model is used to establish a relationship between the concentration of rhodamine WT and the pixel intensity. After extracting the pixel intensity from the UTM coordinates corresponding to the installation location of the contact-type density measuring device, an artificial neural network capable of representing the relationship between the extracted pixel intensity and the concentration value of the tracer substance measured by the contact-type density measuring device at the same time is constructed. It is possible to measure the concentration of the tracer material at the point where the concentration measuring device is not installed within the image through the pixel intensity of the image.

각 프레임별로 화소강도를 추적자물질의 농도값으로 변환하기 위한 인공신경망의 구조는 입력층, 단일 은닉층, 출력층으로 구성되며, 입력층의 입력인자(입력자료)는 로다민 WT가 유입된 상태에서 각 지점에 대한 R, G, B 밴드의 화소강도와 로다민 WT가 유입되기 전 각 지점에 대한 R, G, B 밴드의 기저 화소강도를 이용하여 총 6개로 구성되고, 여기서 로다민 WT의 유입 전의 기저 화소강도가 활용되는 것은 로다민 WT가 존재하지 않는 상태에서도 공간적으로 상이할 수 있는 수심 및 하상재료의 영향을 인공신경망에 반영하기 위함이다. 상술된 6개의 입력자료는 영상 내 PTFE 패널에서 취득된 태양광 참조값으로 나누어 정규화시킨다.The structure of the artificial neural network for converting the pixel intensity into the concentration value of the tracer material for each frame consists of an input layer, a single hidden layer, and an output layer, and the input factor (input data) of the input layer is each in the state where rhodamine WT is introduced. The pixel intensity of the R, G, B bands for the point and the baseline pixel intensity of the R, G, and B bands for each point before the rhodamine WT is introduced are used for a total of six, and here, before the influx of rhodamine WT. The base pixel intensity is used to reflect the effects of water depth and bed material, which can be spatially different even in the absence of rhodamine WT, to the artificial neural network. The above six input data are normalized by dividing by the solar reference value obtained from the PTFE panel in the image.

목표값은 화소강도가 추출된 지점에서 접촉식 농도측정기기에 의해 측정된 추적자물질의 농도값으로 하며, 인공신경망에 대한 수학식은 다음의 수학식 3과 같다.The target value is the concentration value of the tracer material measured by the contact-type concentration measuring device at the point where the pixel intensity is extracted, and the equation for the artificial neural network is shown in Equation 3 below.

Figure 112019103230508-pat00013
Figure 112019103230508-pat00013

여기서, xi는 인공신경망의 입력자료, DN은 로다민 WT가 유입된 상태에서 취득된 영상의 화소강도, DN0는 로다민 WT가 유입되기 전 취득된 영상의 기저 화소강도, DNs는 영상 내에 PTFE 패널에서의 화소강도, R,G,B 는 각각 디지털영상의 밴드, Hj는 은닉 뉴런의 값, Wij는 입력층과 은닉층 간의 가중인자, bj는 은닉 뉴런의 편향인자, δj는 은닉층의 활성함수,

Figure 112019103230508-pat00014
은 추적자물질의 농도 추정치(출력값), Wjk는 은닉층과 출력층 간의 가중인자, bk는 출력층의 편향인자이다. 구축되는 인공신경망의 일반적인 구조는 도 6과 같다.Where x i is the input data of the artificial neural network, DN is the pixel intensity of the image acquired with the rhodamine WT introduced, DN 0 is the base pixel intensity of the image acquired before the rhodamine WT was introduced, and DN s is the image In the PTFE panel, R, G, B are the bands of digital images, H j is the value of the hidden neuron, W ij is the weighting factor between the input layer and the hidden layer, b j is the deflection factor of the hidden neuron, δ j Is the activation function of the hidden layer,
Figure 112019103230508-pat00014
Is the estimated concentration of tracer material (output value), W jk is the weighting factor between the hidden layer and the output layer, and b k is the deflection factor of the output layer. The general structure of the constructed artificial neural network is shown in FIG. 6.

은닉층의 은닉 뉴런의 수는 사용자에 의해 적절한 값으로 결정되어야 하며, 본 발명의 일실시예에서는 k겹 교차검증을 이용하여 평가한 결과, 15개의 은닉 뉴런을 이용할 경우 최소의 오차를 보이는 것으로 나타났다. 촬영된 총 프레임의 수는 23,688이며, 계산량 및 영상 내의 노이즈 감소를 도모하기 위해 24 프레임씩 평균하여 1초 평균 화소강도값을 이용하였다. 따라서 본 발명의 일실시예에서 실험수로 구간 내의 모든 농도측정지점(15개)에 대한 측정된 추적자물질의 농도값을 수집하여 입력인자(농도측정기기 위치에서 영상좌표의 정규화된 화소강도)와 목표값으로 구성된 자료쌍을 만들면 인공신경망을 학습시키기 위한 자료쌍의 수는 14,805(15개(농도측정기기)×23,688/24)이며, 이 중 실측값이 0bbp인 자료(로다민 WT가 각 해당 농도측정기기에 도달하기 전과 각 해당 농도측정기기를 지나친 후)는 배제하고 총 2,472개의 자료가 구성된다. 이 전체 자료 중 70%는 훈련자료, 30%는 검증자료로 분할된다. 일반적으로 훈련자료는 인공신경망이 해당 입력인자에 대해서 정해진 목표값을 제시할 수 있도록 인공신경망을 훈련시키는 과정에서 사용되는 자료이고, 검증자료는 훈련자료에 포함이 안된 새로운 자료에 대해서도 좋은 결과를 보이는지 검증하는데 사용되는 자료이다.The number of hidden neurons in the hidden layer should be determined to an appropriate value by the user, and as a result of evaluation using k-fold cross-validation in one embodiment of the present invention, it was found that the minimum error was shown when 15 hidden neurons were used. The total number of photographed frames was 23,688, and to reduce the amount of calculation and noise in the image, an average pixel intensity value of 1 second was used by averaging every 24 frames. Therefore, in an embodiment of the present invention, the measured concentration values of the tracer material at all concentration measurement points (15) in the experimental channel section are collected, and input factors (normalized pixel intensity of the image coordinate at the concentration measuring device location) and When a data pair consisting of target values is created, the number of data pairs for training the artificial neural network is 14,805 (15 (concentration measuring devices) × 23,688/24), of which the actual measured value is 0bbp (Rodamine WT is each corresponding Before reaching the concentration measuring device and after passing each corresponding concentration measuring device), a total of 2,472 data are included. Of the total data, 70% is divided into training data, and 30% is divided into verification data. In general, training data is data used in the process of training an artificial neural network so that the artificial neural network can present a set target value for the corresponding input factor, and the verification data shows good results even for new data not included in the training data. This is the data used for verification.

훈련자료를 이용하여 학습을 시작하는 초기에는 각 층 간에 존재하는 가중인자와 각 뉴런의 편향인자는 미지수이므로 임의값을 초기값으로 설정하며, 훈련자료로 분할된 자료쌍을 입력하여 임의값으로 구축된 인공신경망의 연산을 수행한다. 임의의 가중인자와 편향인자로 인해 인공신경망에 의해 추정된 추적자물질의 농도값은 큰 오차를 보이게 되며, 이 오차는 모든 훈련자료에 대한 누적제곱오차로 평가하고 그 수학식은 다음의 수학식 4와 같다.At the beginning of learning using training data, since the weighting factor and the bias factor of each neuron that exist between each layer are unknown, a random value is set as the initial value, and the data pair divided by the training data is input to build a random value. It performs the operation of the artificial neural network. The concentration value of the tracer material estimated by the artificial neural network shows a large error due to the arbitrary weighting and biasing factors, and this error is evaluated as the cumulative square error for all training data, and the equation is shown in Equation 4 below. same.

Figure 112019103230508-pat00015
Figure 112019103230508-pat00015

여기서, E는 누적제곱오차, M은 전체 훈련자료 수,

Figure 112019103230508-pat00016
은 m번째 훈련자료에 대한 추적자물질의 농도 추정값, C0(m)은 접촉식 농도측정기기에 의해 측정된 m번째 추적자물질의 농도값이다.Where E is the cumulative square error, M is the total number of training data,
Figure 112019103230508-pat00016
Is the estimated value of the tracer substance concentration for the m-th training data, and C 0(m) is the concentration value of the m-th tracer substance measured by the contact-type concentration measuring device.

인공신경망의 학습과정은 누적제곱오차를 최소화시키기는 과정에 해당하며, 경사하강법을 이용하여 누적제곱오차가 최소가 되도록 가중인자와 편향인자를 보정한다. 학습과정은 훈련자료만을 이용하여 수행하며, 학습된 인공신경망의 최종성능은 전체자료 중 30%에 해당하는 검증자료를 이용하여 평가한다. 도 7은 본 발명의 일실시예에서 검증자료에 대한 실측농도값과 인공신경망의 추정농도값 간의 비교를 보여주는 그래프이며, 본 발명의 일실시예에서 최종적으로 학습된 인공신경망은 결정계수(R2)가 0.93, 평균제곱근오차(RMSE)가 3.43 ppb로 평가되었다.The learning process of the artificial neural network corresponds to the process of minimizing the cumulative square error, and the weighting factor and the bias factor are corrected so that the cumulative square error is minimized using gradient descent. The learning process is performed using only training data, and the final performance of the learned artificial neural network is evaluated using verification data corresponding to 30% of the total data. 7 is a graph showing a comparison between the measured concentration value for the verification data and the estimated concentration value of the artificial neural network in an embodiment of the present invention, and the artificial neural network finally learned in an embodiment of the present invention has a coefficient of determination (R 2 ) Was evaluated as 0.93, and the root mean square error (RMSE) was evaluated as 3.43 ppb.

훈련자료로 학습할 때의 입력인자는 농도측정기기 위치에서 영상좌표의 정규화된 화소강도를 이용하지만, 본 발명의 일실시예에서 학습이 완료된 후 학습된 인공신경망에 각 프레임에서 농도측정기기가 설치되지 않은 지점의 모든 영상좌표의 정규화된 화소강도를 입력인자 형태로 배열하여 입력하면 UTM좌표계에 투영된 각 프레임별 영상은 도 8에 나타낸 바와 같이 각 시간별 농도장으로 변환된다.The input factor when learning from the training data uses the normalized pixel intensity of the image coordinate at the location of the concentration measuring device, but in one embodiment of the present invention, the concentration measuring device is not installed in each frame in the learned artificial neural network after learning is completed. When the normalized pixel intensities of all image coordinates of the non-points are arranged and input in the form of an input factor, the image for each frame projected on the UTM coordinate system is converted into a density field for each time as shown in FIG. 8.

즉, 본 발명에서는 인공신경망 구축 모듈(13)이 상기 수학식 3, 4를 이용하여 RGB영상의 화소강도를 추적자물질의 농도값으로 변환하고, 이러한 변환 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 직접 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 수학식 3, 4를 포함하면서 하천혼합거동 계측 장치(10) 또는 저장 장치(20)에 저장되어 인공신경만 구축 모듈(13)이 저장 장치(20)에 입력저장된 상기 프로그램을 이용하여 영상의 화소강도를 추적자물질의 농도값으로 변환시키게 되는 것이다.That is, in the present invention, the artificial neural network building module 13 converts the pixel intensity of the RGB image to the concentration value of the tracer material using Equations 3 and 4, and this conversion process is finally performed by a computer. It is a program coded with an algorithm directly through, in other words, this program is stored in the river mixing behavior measurement device 10 or the storage device 20 while including the above equations 3 and 4, so that the artificial nerve only building module 13 is By using the program input and stored in the storage device 20, the pixel intensity of the image is converted into a concentration value of the tracer material.

10: 하천혼합거동 계측 장치
11: 영상좌표 추적 모듈
12: 좌표변환 모듈
13: 인공신경망 구축 모듈
20: 저장 장치
10: Stream mixing behavior measurement device
11: Image coordinate tracking module
12: coordinate transformation module
13: Artificial Neural Network Construction Module
20: storage device

Claims (6)

(a) 추적자실험을 수행함과 동시에 무인항공체를 이용하여 하천의 RGB 영상자료를 취득하는 단계(S10)와;
(b) 영상좌표 추적 모듈(11)이 상기 RGB 영상자료의 첫번째 프레임에 대한 지상기준점의 영상좌표를 기준으로 이후 프레임에 대한 지상기준점의 영상좌표를 추출하는 단계(S20)와;
(c) 좌표변환 모듈(12)이 상기 단계(b)에서 추출된 각 프레임에서의 지상기준점의 영상좌표와 해당 지상기준점의 UTM 좌표로 일정개수의 좌표쌍을 구축하고 RGB 영상자료의 모든 영상좌표의 화소강도를 UTM 좌표계상의 화소강도에 투영하는 단계(S30), 및
(d) 인공신경망 구축 모듈(13)이 농도측정기기에 의해 측정된 추적자물질의 농도값과 RGB 영상의 화소강도를 이용하여 인공신경망을 구축하고, 구축된 인공신경망을 통해 RGB 영상자료의 각 프레임에서 농도측정기기가 설치되지 않은 지점의 화소강도를 추적자물질의 농도값으로 변환하는 단계(S40)로 이루어지고,
농도측정기기의 설치 위치에 해당하는 UTM 좌표에서 화소강도를 추출한 후 추출한 화소강도와 동일 시간에 농도측정기기가 측정한 추적자물질의 농도값(목표값) 간의 관계를 나타내고 농도측정기기가 설치되지 않은 지점의 추적자물질의 농도를 영상의 화소강도를 통해 산출할 수 있는 상기 단계(d)의 인공신경망에 대한 수학식은,
Figure 112020095044604-pat00034

(여기서, xi는 인공신경망의 입력자료, DN은 로다민 WT가 유입된 상태에서 취득된 영상의 화소강도, DN0는 로다민 WT가 유입되기 전 취득된 영상의 기저 화소강도, DNs는 영상 내에 PTFE 패널에서의 화소강도, R,G,B 는 각각 디지털영상의 밴드, Hj는 은닉 뉴런의 값, Wij는 입력층과 은닉층 간의 가중인자, bj는 은닉 뉴런의 편향인자, δj는 은닉층의 활성함수,
Figure 112020095044604-pat00035
은 추적자물질의 농도 추정치(출력값), Wjk는 은닉층과 출력층 간의 가중인자, bk는 출력층의 편향인자)이되, 인공신경망의 입력자료는 영상 내 PTFE 패널에서 취득된 태양광 참조값으로 나누어 정규화시킨 것을 특징으로 하는, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법.
(a) performing a tracer experiment and acquiring RGB image data of a river using an unmanned aerial vehicle (S10);
(b) an image coordinate tracking module 11 extracting an image coordinate of a ground reference point for a subsequent frame based on the image coordinate of a ground reference point for the first frame of the RGB image data (S20);
(c) The coordinate conversion module 12 constructs a certain number of coordinate pairs from the image coordinates of the ground reference point in each frame extracted in step (b) and the UTM coordinates of the corresponding ground reference point, and all image coordinates of the RGB image data. Projecting the pixel intensity of the UTM coordinate system to the pixel intensity (S30), and
(d) The artificial neural network construction module 13 constructs an artificial neural network using the concentration value of the tracer substance measured by the concentration measuring device and the pixel intensity of the RGB image, and each frame of RGB image data through the constructed artificial neural network. In the step of converting the pixel intensity at the point where the concentration measuring device is not installed into the concentration value of the tracer substance (S40),
After extracting the pixel intensity from the UTM coordinates corresponding to the installation location of the concentration measuring device, it shows the relationship between the extracted pixel intensity and the concentration value (target value) of the tracer substance measured by the concentration measuring device at the same time. Equation for the artificial neural network of step (d), which can calculate the concentration of the tracer material through the pixel intensity of the image,
Figure 112020095044604-pat00034

(Where x i is the input data of the artificial neural network, DN is the pixel intensity of the image acquired with the rhodamine WT introduced, DN 0 is the base pixel intensity of the image acquired before the rhodamine WT was introduced, and DN s is Pixel intensity in the PTFE panel in the image, R, G, B are the bands of digital images, H j is the value of the hidden neuron, W ij is the weighting factor between the input layer and the hidden layer, b j is the deflection factor of the hidden neuron, δ j is the activation function of the hidden layer,
Figure 112020095044604-pat00035
Is the estimated concentration of tracer material (output value), W jk is the weighting factor between the hidden layer and the output layer, b k is the deflection factor of the output layer), and the input data of the artificial neural network is normalized by dividing it by the solar reference value obtained from the PTFE panel in the image. A method for measuring two-dimensional river mixing behavior using an RGB image obtained from an unmanned aerial vehicle.
제 1 항에 있어서,
상기 단계(a)는 하천의 계측구간 주변부에 일정개수의 지상기준점 설치, 지상기준점의 UTM 좌표 측량, 태양광에 대한 참조 화소강도를 얻기 위한 폴리테트라플루오로에틸렌(PTFE) 패널 설치, 추적자물질인 로다민 WT의 농도를 측정하기 위한 일정개수의 농도측정기기 설치 및 추적자물질인 로다민 WT의 주입과 동시에 RGB 영상 촬영을 포함하는 것을 특징으로 하는, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법.
The method of claim 1,
The step (a) is to install a certain number of ground reference points in the periphery of the measurement section of the river, measure the UTM coordinates of the ground reference point, install a polytetrafluoroethylene (PTFE) panel to obtain reference pixel intensity for sunlight, and the tracer material. Two-dimensional using RGB images acquired from unmanned aerial vehicles, characterized by including installation of a certain number of concentration measuring devices to measure the concentration of rhodamine WT and injection of rhodamine WT, a tracer material, and simultaneous RGB imaging. Method of measuring river mixing behavior.
제 1 항에 있어서,
상기 단계(b)는 영상좌표 추적 모듈(11)이 영상의 첫번째 프레임에서 각 지상기준점에 해당하는 영상좌표를 중심으로 일정영역의 부분영상을 추출하고, 이후 영상의 각 프레임에 대한 영상에서도 첫번째 프레임에서 부분영상이 추출된 동일한 영역에 대해 부분영상을 추출하여, 다음의 수학식,
Figure 112019103230508-pat00017

(여기서, NCC는 정규상호상관계수, I는 첫번째 프레임에서 추출된 부분영상의 화소강도, i와 j는 첫번째 프레임에서 추출된 부분영상에 대한 영상좌표, Itmp는 계산하고자 하는 프레임에서 추출된 부분영상의 화소강도, △X와 △Y는 두 부분영상 간의 이동거리,
Figure 112019103230508-pat00018
는 첫번째 프레임에서 추출된 부분영상의 평균 화소강도,
Figure 112019103230508-pat00019
는 계산하고자 하는 프레임에서 추출된 부분영상의 평균 화소강도)으로부터 첫번째 프레임에서 추출한 부분영상과 각 프레임에서 추출된 부분영상 간의 정규상호상관계수가 가장 높은 지점의 이동거리를 탐색함으로써 각 지상기준점의 영상좌표 이동거리를 계산하는 것인, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법.
The method of claim 1,
In the step (b), the image coordinate tracking module 11 extracts a partial image of a certain area centering on the image coordinates corresponding to each ground reference point from the first frame of the image, and the first frame in the image for each frame of the image thereafter. By extracting the partial image for the same region from which the partial image was extracted, the following equation,
Figure 112019103230508-pat00017

(Here, NCC is the normal correlation coefficient, I is the pixel intensity of the partial image extracted from the first frame, i and j are the image coordinates of the partial image extracted from the first frame, and I tmp is the extracted part from the frame to be calculated. Pixel intensity of the image, △X and △Y are the moving distance between two partial images,
Figure 112019103230508-pat00018
Is the average pixel intensity of the partial image extracted from the first frame,
Figure 112019103230508-pat00019
Is the image of each ground reference point by searching for the moving distance of the point with the highest normal correlation between the partial image extracted from the first frame and the partial image extracted from each frame from the average pixel intensity of the partial image extracted from the frame to be calculated. Two-dimensional stream mixing behavior measurement method using an RGB image acquired from an unmanned aerial vehicle, which calculates the coordinate movement distance.
제 1 항에 있어서,
상기 단계(c)에서 좌표변환 모듈(12)이 RGB 영상자료의 모든 영상좌표의 화소강도를 UTM 좌표계상의 화소강도에 투영하기 위해, 구축된 일정개수의 상기 좌표쌍과 다음의 수학식,
Figure 112019103230508-pat00020

(여기서, x와 y는 UTM 좌표, X와 Y는 영상좌표, P1~P8은 변환계수)을 이용하여 변환계수를 산출하고, 산출된 변환계수와 함께 모든 프레임에서의 영상좌표(X,Y)를 상기 수학식에 대입하여 모든 프레임에서의 UTM 좌표(x,y)를 산출하는 것을 특징으로 하는, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법.
The method of claim 1,
In the step (c), in order for the coordinate conversion module 12 to project the pixel intensity of all image coordinates of the RGB image data onto the pixel intensity of the UTM coordinate system, the established coordinate pairs and the following equations,
Figure 112019103230508-pat00020

(Where x and y are UTM coordinates, X and Y are image coordinates, P 1 ~ P 8 are conversion factors) to calculate the transformation coefficient, and the image coordinates (X, Y) is substituted into the above equation to calculate UTM coordinates (x,y) in every frame. 2D river mixing behavior measurement method using an RGB image acquired from an unmanned aerial vehicle.
삭제delete 제 1 항에 있어서,
상기 인공신경망을 학습시키기 위해 입력자료(농도측정기기 위치에서 영상좌표의 정규화된 화소강도)와 목표값으로 구성된 일정개수의 자료쌍을 구축하고 그 자료쌍 중 일부를 훈련자료로 분할하여 입력하되, 가중인자와 각 뉴런의 편향인자는 임의값을 초기값으로 설정하여 인공신경망의 연산을 수행할 경우 발생하는 오차는 모든 훈련자료에 대한 누적제곱오차인 다음의 수학식,
Figure 112020095044604-pat00023

(여기서, E는 누적제곱오차, M은 전체 훈련자료 수,
Figure 112020095044604-pat00024
은 m번째 훈련자료에 대한 추적자물질의 농도 추정값, C0(m)은 농도측정기기에 의해 측정된 m번째 추적자물질의 농도값)으로 평가하고, 경사하강법을 이용하여 누적제곱오차가 최소가 되도록 가중인자와 편향인자를 보정하는 것을 특징으로 하는, 무인항공체로부터 취득된 RGB영상을 이용한 2차원 하천혼합거동 계측 방법.
The method of claim 1,
In order to train the artificial neural network, a certain number of data pairs consisting of input data (normalized pixel intensity of the image coordinate at the concentration measuring device location) and a target value are constructed, and some of the data pairs are divided into training data and input, The error that occurs when the artificial neural network operation is performed by setting a random value for the weighting weight and the bias factor of each neuron as an initial value is the following equation, which is the cumulative square error for all training data,
Figure 112020095044604-pat00023

(Where E is the cumulative square error, M is the total number of training data,
Figure 112020095044604-pat00024
Is the estimated value of the tracer substance concentration for the m-th training data, C 0 (m) is the concentration value of the m-th tracer substance measured by the concentration measuring device), and the cumulative square error is minimum using the gradient descent method. A method of measuring a two-dimensional river mixing behavior using an RGB image acquired from an unmanned aerial vehicle, characterized in that correcting the weighting factor and the deflection factor as much as possible.
KR1020190125336A 2019-10-10 2019-10-10 Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle KR102193108B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190125336A KR102193108B1 (en) 2019-10-10 2019-10-10 Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190125336A KR102193108B1 (en) 2019-10-10 2019-10-10 Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle

Publications (1)

Publication Number Publication Date
KR102193108B1 true KR102193108B1 (en) 2020-12-18

Family

ID=74041619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190125336A KR102193108B1 (en) 2019-10-10 2019-10-10 Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle

Country Status (1)

Country Link
KR (1) KR102193108B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439027B1 (en) * 2021-10-29 2022-09-01 (주)지오시스템리서치 Method and system for managementing water environment
CN115201518A (en) * 2022-07-25 2022-10-18 水利部交通运输部国家能源局南京水利科学研究院 Image flow measurement quick calibration method based on unmanned aerial vehicle RTK positioning
KR20230032094A (en) 2021-08-30 2023-03-07 경상국립대학교산학협력단 A Method of Estimating a River Cross-Sectional Area using a Point Cloud obtained from a UAV
CN115937103A (en) * 2022-11-19 2023-04-07 吉林大学 Alkaline phosphatase concentration detection method based on deep learning and application software
KR20230114457A (en) 2022-01-25 2023-08-01 서울대학교산학협력단 Method and apparatus for analyzing river confluence shaer layer using rgb images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101866239B1 (en) 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone
KR20190020553A (en) * 2017-08-21 2019-03-04 (주)원지리정보 Unmanned Aircraft Record Log (LOG) File Coordinate Conversion Method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101866239B1 (en) 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone
KR20190020553A (en) * 2017-08-21 2019-03-04 (주)원지리정보 Unmanned Aircraft Record Log (LOG) File Coordinate Conversion Method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Ichiro Fujita 외 2인, 'Large-scale particle image velocimetry for flow analysis in hydraulic engineering applications', JOURNAL OF HYDRAULIC RESEARCH, VOL. 36, 1998, NO. 3 (2010.1.13.)* *
서일원 외 1인,' 드론 영상을 이용한 하천에 유입된오염물질의 시공간적 분포 분석', 2016 대한토목학회 *
서일원 외 1인, '하천에 유입된 오염물질의 2차원 혼합 분석을 위한 드론의 활용' 한국수자원학회 학술대회논문집 (2017.5.24.)* *
서일원 외1인, '하천에 유입된 오염물질의 시공간적 분포 추정을 위한 신경망기법의 활용', 대한토목학회 학술대회 , 2017.10, 96-97(2 pages) (2017.10.31.)* *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230032094A (en) 2021-08-30 2023-03-07 경상국립대학교산학협력단 A Method of Estimating a River Cross-Sectional Area using a Point Cloud obtained from a UAV
KR102439027B1 (en) * 2021-10-29 2022-09-01 (주)지오시스템리서치 Method and system for managementing water environment
KR20230114457A (en) 2022-01-25 2023-08-01 서울대학교산학협력단 Method and apparatus for analyzing river confluence shaer layer using rgb images
CN115201518A (en) * 2022-07-25 2022-10-18 水利部交通运输部国家能源局南京水利科学研究院 Image flow measurement quick calibration method based on unmanned aerial vehicle RTK positioning
CN115937103A (en) * 2022-11-19 2023-04-07 吉林大学 Alkaline phosphatase concentration detection method based on deep learning and application software

Similar Documents

Publication Publication Date Title
KR102193108B1 (en) Observation method for two-dimensional river mixing using RGB image acquired by the unmanned aerial vehicle
US11468697B2 (en) Pedestrian re-identification method based on spatio-temporal joint model of residual attention mechanism and device thereof
Woodget et al. Drones and digital photogrammetry: from classifications to continuums for monitoring river habitat and hydromorphology
Jensen et al. Remote sensing change detection in urban environments
Dérian et al. Wavelet-based optical flow estimation of instant surface currents from shore-based and UAV videos
CN111339826B (en) Landslide unmanned aerial vehicle linear sensor network frame detecting system
US20200334503A1 (en) Methods and systems for hyper-spectral systems
CN112445241A (en) Ground surface vegetation identification method and system based on unmanned aerial vehicle remote sensing technology and readable storage medium
Sensing Disasters: Risk assessment, management, and post-disaster studies using remote sensing
Dusek et al. WebCAT: Piloting the development of a web camera coastal observing network for diverse applications
Alekseychik et al. Eddies in motion: visualizing boundary-layer turbulence above an open boreal peatland using UAS thermal videos
Tavora et al. Recipes for the derivation of water quality parameters using the high-Spatial-Resolution data from sensors on board Sentinel-2A, Sentinel-2B, Landsat-5, Landsat-7, Landsat-8, and Landsat-9 satellites
Lozano et al. Data collection tools for post-disaster damage assessment of building and lifeline infrastructure systems
KR20220066783A (en) Estimation method of forest biomass
Motta et al. Landslide displacement monitoring from multi-temporal terrestrial digital images: Case of the Valoria Landslide site
RU2506536C2 (en) Method of subpixel control and tracking of remote object motion
Yan et al. Evaluating simulated visible greenness in urban landscapes: An examination of a midsize US city
US20170169576A1 (en) Crowd intelligence on flow velocity measurement
Daengsi et al. Irrigation Management: A Pilot Study for Automatic Water Level Measurement and Report System Development Using Machine Learning Associated with Modified Images
Schmid et al. Quantifying local spatial properties through lidar-based isovists for an evaluation of opinion-based vgi in a vr setup
Jyoti et al. River velocity measurements using optical flow algorithm and unoccupied aerial vehicles: A case study
Vandaele et al. Calibrated river-level estimation from river cameras using convolutional neural networks
Casado et al. Unmanned aerial vehicles for riverine environments
Piermattei et al. Analysis of glacial and periglacial processes using structure from motion.
Dean Where to Survey and How Many Sites and Transects

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant