KR102518554B1 - Method and system for predicting water level - Google Patents
Method and system for predicting water level Download PDFInfo
- Publication number
- KR102518554B1 KR102518554B1 KR1020220051933A KR20220051933A KR102518554B1 KR 102518554 B1 KR102518554 B1 KR 102518554B1 KR 1020220051933 A KR1020220051933 A KR 1020220051933A KR 20220051933 A KR20220051933 A KR 20220051933A KR 102518554 B1 KR102518554 B1 KR 102518554B1
- Authority
- KR
- South Korea
- Prior art keywords
- water level
- images
- reservoir
- time point
- neural network
- Prior art date
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 232
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000003287 optical effect Effects 0.000 claims abstract description 130
- 238000013528 artificial neural network Methods 0.000 claims abstract description 121
- 238000001363 water suppression through gradient tailored excitation Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000006424 Flood reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01F—MEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
- G01F23/00—Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
- G01F23/80—Arrangements for signal processing
- G01F23/802—Particular electronic circuits for digital processing equipment
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01F—MEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
- G01F23/00—Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
- G01F23/0007—Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm for discrete indicating and measuring
- G01F23/0015—Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm for discrete indicating and measuring with a whistle or other sonorous signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Fluid Mechanics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 신경망을 이용한 수위 예측 방법 및 시스템에 관한 것으로, 상세하게는 카메라에 촬영된 이미지를 신경망에 적용하여 수위를 예측하는 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for predicting a water level using a neural network, and more particularly, to a method and system for predicting a water level by applying an image captured by a camera to a neural network.
홍수시 수량을 조절하기 위해 수문이 하천, 또는 저수지에 설치된다. 수량을 조절하기 위해 수위를 예측할 수 있다면 보다 효율적으로 홍수에 대응할 수 있다. 따라서 홍수로 인한 피해를 최소화하기 위해 수위를 예측할 수 있는 방법이 요구된다. Flood gates are installed in rivers or reservoirs to control water flow during floods. If we can predict the water level in order to control water flow, we can respond to flooding more efficiently. Therefore, a method for predicting the water level is required to minimize damage caused by floods.
본 발명이 이루고자 하는 기술적인 과제는 옵티컬 플로우를 신경망에 적용하여 수위를 예측하는 방법 및 시스템을 제공하는 것이다. A technical problem to be achieved by the present invention is to provide a method and system for predicting a water level by applying an optical flow to a neural network.
본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법은 프로세서가 카메라로부터 저수지가 포함된 이미지들을 수신하는 단계, 상기 프로세서가 상기 이미지들을 이용하여 옵티컬 플로우(optical flow) 이미지들을 생성하는 단계, 상기 프로세서가 상기 이미지들을 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하는 단계, 상기 프로세서는 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하는 단계, 및 상기 프로세서는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측하는 단계를 포함한다. A water level prediction method using a neural network according to an embodiment of the present invention includes receiving, by a processor, images including a reservoir from a camera; generating, by the processor, optical flow images using the images; applying the images to a first neural network and outputting a probability distribution of first results, the processor applying the optical flow images to a second neural network and outputting a probability distribution of second results, and the processor and estimating the water level of the reservoir using the probability distribution of the first results and the probability distribution of the second results.
실시 예에 따라 상기 신경망을 이용한 수위 예측 방법은 상기 프로세서는 상기 카메라에 구현된 센서로부터 센서 값을 수신하는 단계, 상기 프로세서는 상기 센서 값이 임의의 값 이상인지 판단하는 단계, 및 상기 센서 값이 임의의 값 이상일 때, 상기 프로세서는 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않는 단계를 포함할 수 있다. According to an embodiment, the water level prediction method using the neural network includes receiving, by the processor, a sensor value from a sensor implemented in the camera; determining, by the processor, whether the sensor value is greater than or equal to a predetermined value; and When the value is greater than or equal to a certain value, the processor may include not applying the images to the first neural network and not applying the optical flow images to the second neural network.
실시 예에 따라 상기 신경망을 이용한 수위 예측 방법은 상기 센서 값이 임의의 값 이상일 때, 상기 프로세서는 화면에서 경고 메시지를 표시하는 단계를 더 포함할 수 있다. According to an embodiment, the water level prediction method using the neural network may further include, by the processor, displaying a warning message on a screen when the sensor value is greater than or equal to a predetermined value.
본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 시스템은 저수지를 촬영하여 저수지가 포함된 이미지들을 생성하는 카메라, 및 서버를 포함한다. A water level prediction system using a neural network according to an embodiment of the present invention includes a camera for capturing a reservoir and generating images including the reservoir, and a server.
상기 서버는 상기 신경망을 이용한 수위 예측 명령들을 실행하는 프로세서, 및 상기 명령들을 저장하는 메모리를 포함한다. The server includes a processor that executes water level prediction commands using the neural network, and a memory that stores the commands.
상기 명령들은 상기 카메라로부터 저수지가 포함된 이미지들을 수신하며, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하며, 상기 이미지들을 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하며, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하며, 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측하도록 구현된다. The instructions receive images including a reservoir from the camera, generate optical flow images using the images, apply the images to a first neural network to output a probability distribution of first results, and output the optical flow image are applied to the second neural network to output a probability distribution of second results, and the water level of the reservoir is predicted using the probability distribution of the first results and the probability distribution of the second results.
실시 예에 따라 상기 명령들은 상기 카메라에 구현된 센서로부터 센서 값을 수신하며, 상기 센서 값이 임의의 값 이상인지 판단하며, 상기 센서 값이 임의의 값 이상일 때, 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않도록 구현될 수 있다. According to an embodiment, the commands receive a sensor value from a sensor implemented in the camera, determine whether the sensor value is greater than or equal to a certain value, and apply the images to the first neural network when the sensor value is greater than or equal to a certain value. Otherwise, the optical flow images may not be applied to the second neural network.
본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법 및 시스템은 카메라에 의해 촬영된 이미지들에서 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들을 신경망에 적용하여 수위를 정확하게 예측할 수 있는 효과가 있다. A water level prediction method and system using a neural network according to an embodiment of the present invention generates optical flow images from images captured by a camera, and applies the generated optical flow images to a neural network to accurately predict the water level. .
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 시스템의 블록도를 나타낸다.
도 2는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 개념도를 나타낸다.
도 3은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법의 추가적인 동작을 설명하기 위한 개념도를 나타낸다.
도 4는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 흐름도를 나타낸다.
도 5는 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 이미지를 나타낸다.
도 6은 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 흐름도를 나타낸다. A detailed description of each drawing is provided in order to more fully understand the drawings cited in the detailed description of the present invention.
1 shows a block diagram of a water level prediction system using a neural network according to an embodiment of the present invention.
2 shows a conceptual diagram for explaining a water level prediction method using a neural network according to an embodiment of the present invention.
3 is a conceptual diagram for explaining an additional operation of a water level prediction method using a neural network according to an embodiment of the present invention.
4 is a flowchart illustrating a water level prediction method using a neural network according to an embodiment of the present invention.
5 shows an image for explaining a submersion display method using 3D modeling according to an embodiment of the present invention.
6 shows a flow chart for explaining a submersion display method using 3D modeling according to an embodiment of the present invention.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only illustrated for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention It can be embodied in various forms and is not limited to the embodiments described herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can apply various changes and can have various forms, so the embodiments are illustrated in the drawings and described in detail in this specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosure forms, and includes all changes, equivalents, or substitutes included in the spirit and technical scope of the present invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from another component, e.g., without departing from the scope of rights according to the concept of the present invention, a first component may be termed a second component, and similarly The second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않은 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Other expressions describing the relationship between elements, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. As used herein, "comprising." or "to have." is intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but is intended to indicate that one or more other features or numbers, steps, operations, components, parts, or combinations thereof are present. It should be understood that it does not preclude the possibility of existence or addition of one or the other.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 시스템의 블록도를 나타낸다. 1 shows a block diagram of a water level prediction system using a neural network according to an embodiment of the present invention.
도 1을 참고하면, 수위 예측 시스템(100)은 신경망을 이용한 수위 예측 시스템이다. 수위 예측이란 현재 수위를 예측하거나, 미래의 수위를 예측하는 것을 의미한다. 수위 예측 시스템(100)은 서버(10), 제1센서 그룹(SG1), 및 제2센서 그룹(SG2)을 포함한다. Referring to FIG. 1 , the water
제1센서 그룹(SG1)은 제1IP 카메라(13), 제1습도계(15), 제1내부 수위계(17), 제1수문 권양기(19), 제1기압계(21), 제1강우량 센서(23), 제1외부 수위계(25), 및 제1RTU(Remote Terminal Unit; 27)을 포함한다. The first sensor group SG1 includes a
제1IP 카메라(13)는 제1수문(11)이 위치한 제1지역(R1)의 주변을 촬영한다. 제1IP 카메라(13)는 촬영된 영상을 무선으로 서버(10)로 전송한다. 제1지역(R1)의 주변이란 제1수문(11)을 포함한 지역을 의미할 수 있다. 제1수문(11)은 저수지에 설치되며, 홍수 예측시 제1수문(11)이 개방된다. 실시 예에 따라 제1수문(11)이 설치되는 위치, 형태는 다양할 수 있다. 예컨대, 제1수문(11)은 하천, 보, 또는 간척지 등 다양한 곳에서 설치될 수 있다. 경우에 따라 홍수 예측시 제1수문(11)이 폐쇄될 수 있다. The
제1습도계(15)는 제1지역(R1)에서 습도를 측정한다. The
제1내부 수위계(17)는 제1수문(11)의 내부 수위를 측정한다. 제1수문(11)의 내부 수위란 저수지 내부의 수위를 의미한다. The first internal
제1수문 권양기(19)는 제1수문(11)을 제어한다. 제1수문 권양기(19)를 통해 제1수문(11)이 열리거나, 닫힐 수 있다. 서버(10)는 제1수문 권양기(19)를 제어할 수 있다. 서버(10)의 명령에 따라 제1수문(11)를 열거나 닫기 위해 제1수문 권양기(19)를 제어한다. 관리자가 아니라 서버(10)에서 제1수문(11)을 열거나 닫도록 명령함으로써 원격에서 자동으로 제1수문(11)을 제어할 수 있다. The first sluice gate hoist (19) controls the first sluice gate (11). The
제1기압계(21)는 제1지역(R1)에서 기압을 측정한다. The
제1강우량 센서(23)는 제1지역(R1)에서 비의 양을 측정한다. The
제1수문(11)이 열릴 때, 제1외부 수위계(25)는 제1수문(11)의 외부 수위를 측정한다. 제1수문(11)의 외부 수위란 저수지와 연결된 하천에 흐르는 수위를 의미한다. 제1외부 수위계(25)는 제1수문(11)이 제대로 열렸는지 확인하기 위해 이용된다. 제1수문(11)이 제대로 열릴 때, 하천에 물이 흘러 제1외부 수위계(25)에 의해 측정되는 수위의 변화가 있을 것이다. When the
제1RTU(27)는 제1습도계(15)로부터 측정된 제1습도 데이터, 제1내부 수위계(17)로부터 측정된 제1수위 데이터, 제1기압계(21)로부터 측정된 제1기압 데이터, 및 제1강우량 센서(23)로부터 측정된 제1강우량 데이터를 수신한다. 제1RTU(27)는 제1습도계(15), 제1내부 수위계(17), 제1기압계(21), 및 제1강우량 센서(23)와 케이블로 연결된다. 실시 예에 따라 제1RTU(27)는 제1수문 권양기(19)와 연결될 수 있다. 제1RTU(27)와 제1수문 권양기(19)가 연결될 때, 서버(10)는 제1RTU(27)를 통해 제1수문 권양기(19)를 제어하여 제1수문(11)을 원격으로 여닫을 수 있다. 수위 예측 시스템(100)은 SCADA(Supervisory Control And Data Acquisition) 시스템으로 구현될 수 있다. 제1RTU(27)는 서버(10)와 IEC 60870-5-101, IEC 61850, 또는 DNP3 등과 같은 통신 프로토콜로 통신할 수 있다. The
제2센서 그룹(SG2)은 제2IP 카메라(33), 제2습도계(35), 제2기압계(41), 제2강우량 센서(43), 및 제2RTU(47)을 포함한다. The second sensor group SG2 includes a
제2IP 카메라(33)는 제1지역(R1)으로부터 임의의 거리 이상 떨어진 제2지역(R2)의 주변을 촬영한다. 제2IP 카메라(33)는 촬영된 영상을 무선으로 서버(10)로 전송한다. 제2지역(R2)이란 제1지역(R1)으로부터 임의의 거리 이상 떨어진 지역을 의미한다. The
제2습도계(35)는 제2지역(R2)에서 습도를 측정한다. The
제2강우량 센서(43)는 제2지역(R2)에서 비의 양을 측정한다. The
제2기압계(41)는 제2지역(R2)에서 기압을 측정한다. The
또한, 실시 예에 따라 제2센서 그룹(SG2)은 제2수문(31)을 더 포함할 수 있다. 제2수문(31)은 홍수 예측시 개방된다. 실시 예에 따라 제2수문(31)이 설치되는 위치, 형태는 다양할 수 있다. 경우에 따라 홍수 예측시 제2수문(31)이 폐쇄될 수 있다. Also, according to an embodiment, the second sensor group SG2 may further include a
제2센서 그룹(SG2)은 제2수문(31)을 더 포함할 때, 제2센서 그룹(SG2)은 제2내부 수위계(37), 제2수문 권양기(39), 및 제2외부 수위계(45)를 더 포함한다. When the second sensor group SG2 further includes a
제2내부 수위계(37)는 제2수문(31)의 내부 수위를 측정한다. 제2수문(31)의 내부 수위란 저수지 내부의 수위를 의미한다. 같은 저수지에 제1, 2내부 수위계(17, 37)가 설치되었다 하더라도, 저수지의 지형에 따라 제1내부 수위계(17)가 측정한 수위와 제2내부 수위계(37)가 측정한 수위는 다를 수 있다. The second inner
제2수문 권양기(39)는 제2수문(31)을 제어한다. 제2수문 권양기(39)를 통해 제2수문(31)이 열리거나, 닫힐 수 있다. 서버(10)는 제2수문 권양기(39)를 제어할 수 있다. 서버(10)의 명령에 따라 제2수문(31)을 열거나 닫기 위해 제2수문 권양기(39)를 제어한다. 관리자가 아니라 서버(10)에서 제2수문(31)을 열거나 닫도록 명령함으로써 원격에서 자동으로 제2수문(31)을 제어할 수 있다. The second sluice gate hoist (39) controls the second sluice gate (31). The
제2수문(31)이 열릴 때, 제2외부 수위계(45)는 제2수문(31)의 외부 수위를 측정한다. 제2수문(31)의 외부 수위란 저수지와 연결된 하천에 흐르는 수위를 의미한다. 제2외부 수위계(45)는 제2수문(31)이 제대로 열렸는지 확인하기 위해 이용된다. 제2수문(31)이 제대로 열릴 때, 하천에 물이 흘러 제2외부 수위계(45)에 의해 측정되는 수위의 변화가 있을 것이다. When the
제2RTU(47)는 제2습도계(35)로부터 측정된 제2습도 데이터, 제2내부 수위계(37)로부터 측정된 제2수위 데이터, 제2기압계(41)로부터 측정된 제2기압 데이터, 또는 제2강우량 센서(43)로부터 측정된 제2강우량 데이터를 수신한다. 제2RTU(47)는 제2습도계(35), 제2내부 수위계(37), 제2기압계(41), 또는 제2강우량 센서(43)와 케이블로 연결된다. 실시 예에 따라 제2RTU(47)는 제2수문 권양기(39)와 연결될 수 있다. 제2RTU(47)와 제2수문 권양기(39)가 연결될 때, 서버(10)는 제2RTU(47)를 통해 제2수문 권양기(39)를 제어하여 제2수문(31)을 원격으로 여닫을 수 있다. 수위 예측 시스템(100)은 SCADA(Supervisory Control And Data Acquisition) 시스템으로 구현될 수 있다. 제2RTU(47)는 서버(10)와 IEC 60870-5-101, IEC 61850, 또는 DNP3 등과 같은 통신 프로토콜로 통신할 수 있다. The
서버(10)는 서버(10)의 요청 신호에 따라 제1RTU(27)로부터 상기 제1습도 데이터를 수신하고, 제2RTU(47)로부터 상기 제2강우량 데이터를 수신한다. 또한, 서버(10)는 제1IP 카메라(13)와 제2IP 카메라(33) 각각으로부터 촬영된 제1영상과 제2영상을 각각 수신한다. The
서버(10)는 상기 제1영상, 상기 제2영상, 상기 제1습도 데이터, 및 상기 제2강우량 데이터를 입력으로 신경망 알고리즘을 적용하여 제1지역(R1)과 제2지역(R2)의 예상 수위를 예측한다. The
상기 신경망 알고리즘은 DNN, 또는 CNN으로 구현될 수 있다. 서버(10)는 프로세서(50)와 메모리(60)를 포함한다. 프로세서(50)에 의해 상기 신경망 알고리즘이 수행된다. 상기 신경망 알고리즘은 메모리(60)에 저장된다. 또한, 프로세서(50)는 신경망을 이용한 수위 예측 명령들을 실행한다. 상기 명령들은 메모리(60)에 저장된다. 이하, 프로세서(50)의 동작은 서버(10)의 동작으로 이해될 수 있다. The neural network algorithm may be implemented as a DNN or CNN. The
실시 예에 따라 수위 예측 시스템(100)은 카메라(70)를 더 포함할 수 있다. 카메라(70)는 IP 카메라일 수 있다. 카메라(70)는 저수지 주변을 촬영한다. According to embodiments, the water
도 2는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 개념도를 나타낸다. 2 shows a conceptual diagram for explaining a water level prediction method using a neural network according to an embodiment of the present invention.
도 1과 도 2를 참고하면, 프로세서(50)는 카메라(70)로부터 저수지가 포함된 이미지들(FR)을 수신한다. Referring to FIGS. 1 and 2 , the
프로세서(50)는 이미지들(FR)을 이용하여 옵티컬 플로우 이미지들(OFG)을 생성한다. 옵티컬 플로우 이미지들(OFG)은 저수지가 포함된 이미지들(FR) 중 연속되는 이미지들 사이의 객체의 움직임이 표현된 이미지들을 의미한다. 옵티컬 플로우는 저수지가 포함된 이미지들(FR) 중 연속되는 이미지들 사이의 차이로 생성될 수 있다. 옵티컬 플로우 이미지들(OFG)은 제1방향을 갖는 옵티컬 플로우들과 제2방향을 갖는 옵티컬 플로우들을 포함한다. 상기 제1방향은 위로 향하는 방향을 의미하고, 상기 제2방향은 아래로 향하는 방향을 의미한다. 즉, 상기 제1방향과 상기 제2방향은 서로 다른 방향이다. 저수지가 포함된 이미지들(FR)에서 제1방향을 갖는 옵티컬 플로우는 수위의 상승을 의미하며, 제2방향을 갖는 옵티컬 플로우는 수위의 하강을 의미한다. The
프로세서(50)는 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하여 제1결과들의 확률 분포를 출력한다. 제1신경망(NN1)은 CNN(Convolutional Neural Network)일 수 있다. 제1신경망(NN1)은 컨볼루션 레이어들(convolution layers), 풀리 커넥티드 레이어(fully connected layers), 및 소프트맥스(softmax) 함수를 포함한다. 제1결과들 각각은 0에서 1사이의 값을 가진다. 제1결과들의 확률 분포를 통해 저수지 영역이 식별될 수 있다. The
프로세서(50)는 옵티컬 플로우 이미지들(OFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력한다. 제2신경망(NN2)는 CNN일 수 있다. 제2신경망(NN2)은 컨볼루션 레이어들, 풀리 커넥티드 레이어, 및 소프트맥스 함수를 포함한다. 제2결과들 각각은 0에서 1사이의 값을 가진다. 제2결과들의 확률 분포를 통해 크기가 식별될 수 있다. The
프로세서(50)는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측한다. 상기 저수지의 수위를 예측한다함은 상기 저수지의 높이를 추정한다는 의미이다. 또한, 실시 예에 따라 상기 저수지의 수위를 예측한다함은 미래의 상기 저수지의 높이를 예측한다는 의미이다. 이때, 제1신경망(NN1)과 제2신경망(NN2)은 미래의 상기 저수지의 높이를 예측하기 위해 과거의 저수지의 높이에 대한 데이터틀 이용하여 학습될 수 있다. 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포의 이용은 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱을 의미한다. 즉, 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱으로 상기 저수지의 수위가 예측된다. The
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들, 또는 제2방향을 갖는 옵티컬 플로우들을 선택한다. 예컨대, 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들을 선택할 수 있다. 상기 제1방향은 위로 향하는 방향을 의미한다. 실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제2방향을 갖는 옵티컬 플로우들을 선택할 수 있다. 상기 제2방향은 아래로 향하는 방향을 의미한다.According to an embodiment, the
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들을 선택하고, 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력할 수 있다. 제2신경망(NN2)에 옵티컬 플로우 이미지들(OFG)을 적용하는 것이 아니라, 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용함으로써 신경망의 연산 부담 감소 및 처리 속도 향상이 가능하다. 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들만을 선택함으로써 저수지에서 수위 상승이 예측될 수 있다. 저수지에서 주로 문제가 되는 것은 저수지의 범람이므로 수위 상승이 수위 하락보다는 더 중요하다. According to an embodiment, the
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제2방향을 갖는 옵티컬 플로우들을 선택하고, 선택된 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력할 수도 있다.According to an embodiment, the
실시 예에 따라 프로세서(50)는 카메라(70)에 구현된 센서(71)로부터 센서 값을 수신한다. 센서(71)는 풍향 센서, 또는 자이로 센서일 수 있다. According to an embodiment, the
프로세서(50)는 상기 센서 값이 임의의 값 이상인지 판단한다. The
상기 센서 값이 임의의 값 이상일 때, 프로세서(50)는 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않는다. When the sensor value is greater than or equal to a certain value, the
상기 센서 값이 임의의 값 이상일 때, 카메라(70)는 많이 흔들림을 의미하므로, 카메라(70)에 의해 생성된 저수지가 포함된 이미지들(FR)을 신뢰할 수 없기 때문이다.When the sensor value is greater than a certain value, it means that the
또한, 상기 센서 값이 임의의 값 이상일 때, 프로세서(50)는 화면(미도시)에서 경고 메시지를 디스플레이(55)에 표시한다. 예컨대, 상기 경고 메시지는 현재 바람이 많이 불고 있어서 수위 예측은 할 수 없다는 메시지일 수 있다. 디스플레이(55)는 서버(10)의 디스플레이로, 서버(10)의 관리자가 이를 볼 수 있다. In addition, when the sensor value is higher than a certain value, the
도 3은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법의 추가적인 동작을 설명하기 위한 개념도를 나타낸다. 3 is a conceptual diagram for explaining an additional operation of a water level prediction method using a neural network according to an embodiment of the present invention.
도 1 내지 도 3의 (a)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. 제1방향은 위로 향하는 방향을 의미한다. 도 3의 (a)에서 각 시점(T1, T2, T3, 및 T4)에서 화살표는 제1방향을 나타낸다. 1 to 3 (a), at a first time point T1, the
프로세서(50)는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다. The
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라고 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined that the predicted water level of the reservoir is greater than the first arbitrary water level Th1 and less than or equal to the second arbitrary water level Th2 at the first time point T1, the
제1시점(T1)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다. The images including the reservoir received from the
프로세서(50)는 제2시점(T2)에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다. The
제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라고 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined at the second time point T2 that the predicted water level of the reservoir is greater than or equal to the first arbitrary water level Th1 and less than or equal to the second arbitrary water level Th2, the
제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다. The images including the reservoir received from the
유사한 방법으로 제4시간(T4)에서도 프로세서(50)는 제2시점(T2)에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다. 이때, 제1시점(T1), 제2시점(T2), 제3시점(T3), 및 제4시점(T4) 사이의 시간 간격(I12, I23, 또는 I34)은 동일하다. Similarly, at the fourth time T4, the
즉, 프로세서(50)는 특정 시점에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하일 때, 일정한 시간 간격으로 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 이용하여 다른 시점에서 저수지의 수위를 예측한다. That is, the
도 1 내지 도 3의 (b)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. 1 to 3 (b), at a first time point T1, the
도 3의 (b)에서 각 시점(T1, T2, T3, 및 T4)에서 화살표의 크기는 수위의 높이를 상대적으로 나타낸다. 즉, 각 시점(T1, T2, T3, 및 T4)에서 화살표의 크기가 클수록 수위가 높음을 나타내고, 화살표의 크기가 작을수록 수위가 낮음을 나타낸다. In (b) of FIG. 3, the size of the arrows at each time point (T1, T2, T3, and T4) indicates the relative height of the water level. That is, at each time point (T1, T2, T3, and T4), the larger the size of the arrow indicates a higher water level, and the smaller the size of the arrow indicates a lower water level.
프로세서(50)는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다. The
제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined that the predicted water level of the reservoir at the first time point T1 is equal to or higher than the second arbitrary water level Th2, the
이때, 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위 이상이라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (a)에서 I12)보다 짧다. 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')이 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (a)에서 I12)보다 짧은 이유는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 저수지의 범람이 예상될 수 있으므로, 더 짧은 시간에 계속해서 저수지의 수위을 예측하기 위함이다. At this time, the time interval between the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir is equal to or higher than the second arbitrary water level at the first time point T1 (Fig. 3(b) In ), I12′) is a first time point (T1) when it is determined that the predicted water level of the reservoir at the first time point (T1) is greater than or equal to the first arbitrary water level (Th1) and less than or equal to the second arbitrary water level (Th2). and the second time point T2 is shorter than the time interval (I12 in FIG. 3(a)). The time interval between the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir is equal to or higher than the second arbitrary water level Th2 (I12' in FIG. 3(b)) The time interval between the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir is higher than the first arbitrary water level Th1 and lower than the second arbitrary water level Th2 (Fig. The reason why it is shorter than I12) in (a) of 3 is that when it is determined that the predicted water level of the reservoir at the first time point T1 is equal to or higher than the second arbitrary water level Th2, flooding of the reservoir can be expected, so that more It is to predict the water level of the reservoir continuously in a short time.
제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined that the predicted water level of the reservoir is higher than the second arbitrary water level Th2 at the second time point T2, the
제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다. The images including the reservoir received from the
이때, 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제2시간(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (b)에I23에서 은 제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제2시점(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (a)에서 I23)보다 짧다. 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 저수지의 범람이 예상될 수 있으므로, 더 짧은 시간에 계속해서 저수지의 수위을 예측하기 위함이다. At this time, the time interval between the second time point T2 and the third time point T3 when it is determined that the predicted water level of the reservoir is equal to or higher than the second arbitrary water level Th2 at the second time point T2 (FIG. 3 In (b) at I23, a second time point when it is determined that the predicted water level of the reservoir at the second time point T2 is greater than or equal to the first arbitrary water level Th1 and less than or equal to the second arbitrary water level Th2 ( It is shorter than the time interval (I23 in (a) of FIG. 3) between T2) and the third time point T3. The predicted water level of the reservoir at the second time point T2 is equal to or higher than the second arbitrary water level Th2 When the judgment is made, since flooding of the reservoir can be expected, this is to continuously predict the water level of the reservoir in a shorter time.
제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때, 프로세서(50)는 제4시점(T4)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined at the third time point T3 that the predicted water level of the reservoir is greater than the first arbitrary water level Th1 and less than or equal to the second arbitrary water level Th2, the
이때, 제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제3시간(T3)과 제4시점(T4) 사이의 시간 간격(도 3의 (b)에서 I34')은 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위 이상이라 판단될 때의 제2시점(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (b)에서 I23')보다 길다. 제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때, 더 이상의 저수지의 범람이 예상되지 않는다고 판단하여, 더 짧은 시간에 계속해서 저수지의 수위을 예측할 필요가 없기 때문이다. At this time, the third time T3 and the fourth time point when it is determined that the predicted water level of the reservoir is higher than the first arbitrary water level Th1 and lower than the second arbitrary water level Th2 at the third time point T3. The time interval between (T4) (I34' in (b) of FIG. 3) is the second time point (T2) when it is determined that the predicted water level of the reservoir is equal to or higher than the second arbitrary water level at the second time point (T2). and the time interval between the third time point T3 (I23′ in FIG. 3(b)). When it is determined that the predicted water level of the reservoir is greater than the first arbitrary water level Th1 and less than the second arbitrary water level Th2 at the third time point T3, it is determined that no further flooding of the reservoir is expected, This is because there is no need to continuously predict the level of the reservoir in a shorter period of time.
즉, 프로세서(50)는 저수지의 범람이 예측될 때에는 저수지의 예측 시점을 앞당김으로써 저수지의 범람이 신속하게 모니터링될 수 있다. That is, the
도 1 내지 도 3의 (c)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. Referring to (c) of FIGS. 1 to 3, at a first time point T1, the
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라고 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined at the first time T1 that the predicted water level of the reservoir is equal to or less than the first arbitrary water level Th1, the
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined at the first time point T1 that the predicted water level of the reservoir is equal to or less than the first arbitrary water level Th1, the
이때, 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 이용하여 저수지의 수위를 예측하는 이유는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단되어 저수지의 범람이 예측되지 않기 때문이다. 오히려 저수지의 수위 하락의 가능성이 있다. At this time, the reason for predicting the water level of the reservoir using the optical flow images including the optical flows having the second direction is to determine that the predicted water level of the reservoir at the first time point T1 is equal to or less than the first arbitrary water level Th1 This is because the flooding of the reservoir is unpredictable. Rather, there is a possibility of a drop in the water level of the reservoir.
이때, 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (c)에서 I12'')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')보다 길다. At this time, the time interval between the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir at the first time point T1 is equal to or less than the first arbitrary water level Th1 (see FIG. 3) In (c), I12″) is the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir at the first time point T1 is equal to or higher than the second arbitrary water level Th2. longer than the time interval between (I12' in FIG. 3(b)).
제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이하라 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. When it is determined at the second time point T2 that the predicted water level of the reservoir is equal to or less than the second arbitrary water level Th2, the
이때, 제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위 이하라 판단될 때의 제2시간(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (c)에서 I23'')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (c)에서 I12'')과 같다. At this time, the time interval between the second time point T2 and the third time point T3 when it is determined that the predicted water level of the reservoir is equal to or less than the first arbitrary water level at the second time point T2 (Fig. 3 (c) In I23″) is the time interval between the first time point T1 and the second time point T2 when it is determined that the predicted water level of the reservoir at the first time point T1 is equal to or less than the first arbitrary water level Th1. (I12'' in (c) of FIG. 3).
유사한 방법으로 제4시간(T4)에서도 프로세서(50)는 제3시점(T3)에서 예측된 저수지의 수위가 제1임의의 수위 이하인지 판단한다. Similarly, at the fourth time T4, the
즉, 프로세서(50)는 제1시점에서 예측된 저수지의 수위가 제1임의의 수위 (Th1)이하일 때, 제2시점에서는 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측함으로써 저수자의 수위 하락이 예측될 수 있다. That is, when the water level of the reservoir predicted at the first time point is equal to or less than the first arbitrary water level (Th1), the
프로세서(50)는 제1시점에서 예측된 저수지의 수위에 따라 제2시점에서 다른 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 폴로우 이미지들을 이용하든지, 저수지의 수위를 예측하는 제2시점을 다르게 하여 저수지의 수위를 저수위 수위 변화에 따라 예측할 수 있다. The
도 4는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 흐름도를 나타낸다. 4 is a flowchart illustrating a water level prediction method using a neural network according to an embodiment of the present invention.
도 1, 도 2, 및 도 4를 참고하면, 프로세서(50)가 카메라(70)로부터 저수지가 포함된 이미지들(FR)을 수신한다(S10). 1, 2, and 4 , the
프로세서(50)가 상기 이미지들(FR)을 이용하여 옵티컬 플로우 이미지들(OFG)을 생성한다(S20). The
프로세서(50)가 상기 이미지들(FR)을 제1신경망(NN1)에 적용하여 제1결과들의 확률 분포를 출력한다(S30). The
프로세서(50)는 상기 옵티컬 플로우 이미지들(OFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력한다(S40). The
프로세서(50)는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측한다(S50). The
이하, 프로세서(50)에 의해 저수지의 수위가 범람으로 예측될 때, 프로세서(50)는 침수되는 저수지 주변의 위치를 디스플레이(55)에 표시하기 위한 방법이 개시된다. Hereinafter, when the water level of the reservoir is predicted by the
도 1을 참고하면, 프로세서(50)는 카메라(70)로부터 저수지가 포함된 이미지들을 수신한다.Referring to FIG. 1 , the
도 5는 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 이미지를 나타낸다. 5 shows an image for explaining a submersion display method using 3D modeling according to an embodiment of the present invention.
도 1과 도 5를 참고하면, 프로세서(50)는 상기 이미지들 중 어느 하나(예컨대, FR3)에 높이 정보를 추가한다. 상기 높이 정보는 저수지와 저수지를 포함한 주변 지형(예컨대, 언덕)의 높이 정보를 의미한다. 상기 높이 정보는 네트워크를 통해 다른 서버(미도시)로부터 수신될 수 있다. 상기 높이 정보는 항공기에 부착된 라이다를 이용하여 생성될 수 있다. 상기 이미지들 중 어느 하나의 높이 정보가 추가되었다함은 각 이미지에 포함된 지형물(예컨대, 저수지, 땅, 또는 다양한 객체들)에 대한 높이 정보가 추가되었음을 의미한다. Referring to FIGS. 1 and 5 , the
프로세서(50)는 상기 이미지들 중 어느 하나(예컨대, FR3)를 복수의 그리드들(G1~Gi; i는 자연수)로 나눈다. The
프로세서(50)는 상기 이미지들 중 어느 하나(FR3)를 제1사이즈를 갖는 복수의 그리드들(G1~Gi)로 나눈다. 상기 이미지들 중 어느 하나(FR3)는 상기 높이 정보가 추가된 이미지를 의미한다. The
실시 예에 따라 프로세서(50)는 복수의 그리드들(G1~Gi) 각각에서 가장 높은 높이 값과 가장 낮은 높이 값을 비교한다. 예컨대, i번째 그리드(Gi)에서 가장 높은 높이 값(Hmax)와 가장 낮은 높이 값(Hmin)을 비교한다. According to an embodiment, the
상기 가장 높은 높이 값(Hmax)과 상기 가장 낮은 높이 값(Hmin)의 차이가 임의의 값 이상인 그리드가 존재할 때, 프로세서(50)는 상기 가장 높은 높이 값(Hmax)과 상기 가장 낮은 높이 값(Hmin)의 차이가 임의의 값 이하가 되도록 상기 그리드를 제2사이즈를 갖는 그리드들(예컨대, Gi1~Gi4)로 나눈다. 상기 제1사이즈는 상기 제2사이즈보다 크다. When there is a grid in which the difference between the highest height value Hmax and the lowest height value Hmin is equal to or greater than an arbitrary value, the
프로세서(50)는 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)를 선택한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7)이란 그리드의 일부가 저수지를 나타내는 그리드들을 의미한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 먼저 저수지에서 넘친 물이 흐를 것이다. The
프로세서(50)는 상기 복수의 그리드들(G1~Gi) 사이의 높이 차이를 계산한다. 구체적으로, 프로세서(50)는 상기 복수의 그리들(G1~Gi) 각각에서 가장 높은 높이 값(예컨대, H1~H10)을 이용하여 높이 차이를 계산할 수 있다. 또한, 프로세서(50)는 상기 복수의 그리드들 각각에서 가장 낮은 높이 값을 이용하여 높이 차이를 계산할 수 있다.The
프로세서(50)는 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 높이 차이가 가장 큰 그리드(예컨대, G9)를 선택한다. The
프로세서(50)는 상기 높이 차이가 가장 큰 그리드(예컨대, G9)에 대해 침수 확률을 제1확률로 표시한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 높이 차이가 가장 큰 그리드(예컨대, G9)에서 먼저 물이 흐를 것이다. The
프로세서(50)는 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)의 인접 그리드들(예컨대, G3, G5, G8, G9, 및 G10) 중 상기 높이 차이가 가장 큰 그리드(예컨대, G9)를 제외한 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에 대해 침수 확률을 제2확률로 표시한다. 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)와 높이 차이가 가장 큰 그리드(예컨대, G9)에서 먼저 물이 흐르고, 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)로 순차적으로 물이 흐를 것이다. 따라서 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)와 높이 차이가 가장 큰 그리드(예컨대, G9)에서 침수 확률이 더 높고, 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에는 상대적으로 침수 확률이 낮다. 저수지에서 범람되는 물의 양이 적을 때에는 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에는 침수되지 않을 수 있다. 즉, 상기 제1확률은 상기 제2확률보다 높다. The
프로세서(50)는 상기 제1확률과 상기 제2확률에 따라 상기 복수의 그리드들에 대해 서로 다른 픽셀 값들로 디스플레이(55)에 표시한다. 상기 제1확률에 따른 그리드(예컨대, G4)는 어두운 컬러를 갖는 픽셀 값을 가질 수 있고, 상기 제2확률에 따른 그리드들(예컨대, G3, G5, G8, 및 G10)은 상대적으로 밝은 컬러를 갖는 픽셀 값을 가질 수 있다. The
저수지의 범람에 대한 침수 확률을 미리 디스플레이(55)에 표시하도록 함으로써 서버(10)의 관리자는 저수지의 범람에 따른 침수 지역을 미리 판단할 수 있는 효과가 있다. 또한, 본 발명은 복잡한 수식을 이용하지 않고도 범람 지역을 예측할 수 있는 효과가 있다. The manager of the
프로세서(50)는 상기 침수로 표시되는 그리드들과 자산 사이의 거리를 계산한다. 상기 자산은 논, 밭, 또는 집 등 재산적인 가치를 지닌 객체를 의미한다. The
상기 거리가 임의의 거리 이하일 때, 프로세서(50)는 디스플레이(55)에 경고 메시지를 표시한다. When the distance is below a certain distance, the
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to an embodiment shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to an embodiment shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.
100: 수위 예측 시스템;
10: 서버;
50: 프로세서;
60: 메모리;
70: 카메라;
71: 센서; 100: water level prediction system;
10: server;
50: processor;
60: memory;
70: camera;
71: sensor;
Claims (5)
상기 프로세서가 상기 이미지들을 이용하여 옵티컬 플로우(optical flow) 이미지들을 생성하는 단계;
상기 프로세서가 상기 제1시점에서 상기 이미지들을 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하는 단계;
상기 프로세서가 상기 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 선택하는 단계;
상기 프로세서가 상기 제1시점에서 상기 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하는 단계;
상기 프로세서는 상기 제1시점에서 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측하는 단계;
상기 프로세서는 상기 제1시점에서 상기 예측된 저수지의 수위가 제1임의의 수위 이상이고, 제2임의의 수위 이하인지 판단하는 단계;
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제1임의의 수위 이상이고, 상기 제2임의의 수위 이하라고 판단될 때, 상기 프로세서는 제2시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 상기 생성된 옵티컬 플로우 이미지들 중 상기 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하는 단계;
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제2임의의 수위 이상이라 판단될 때, 상기 프로세서는 제3시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 상기 생성된 옵티컬 플로우 이미지들 중 상기 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하는 단계; 및
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제1임의의 수위 이하라 판단될 때, 상기 프로세서는 제4시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하는 단계를 포함하며,
상기 제1시점과 상기 제3시점 사이의 시간 간격은 상기 제1시점과 상기 제2시점 사이의 시간 간격보다 짧은 신경망을 이용한 수위 예측 방법.receiving, by a processor, images including a reservoir from a camera at a first time point;
generating, by the processor, optical flow images using the images;
outputting, by the processor, a probability distribution of first results by applying the images to a first neural network at the first time point;
selecting, by the processor, optical flow images including optical flows having a first direction from among the optical flow images;
outputting, by the processor, a probability distribution of second results by applying optical flow images including optical flows having the selected first direction to a second neural network at the first time point;
predicting, by the processor, the water level of the reservoir using the probability distribution of the first results and the probability distribution of the second results at the first time point;
determining, by the processor, whether the predicted water level of the reservoir at the first time point is greater than or equal to a first arbitrary water level and less than or equal to a second arbitrary water level;
When it is determined that the predicted water level of the reservoir at the first time point is greater than or equal to the first arbitrary water level and less than or equal to the second arbitrary water level, the processor determines the image including the reservoir received from the camera at the second time point. receiving, applying one of the images to the first neural network, generating the optical flow images using the images, and including optical flows having the first direction among the generated optical flow images estimating the water level of the reservoir by applying the optical flow images to the second neural network;
When it is determined that the predicted water level of the reservoir at the first time point is greater than or equal to the second arbitrary water level, the processor receives images including the reservoir received from the camera at a third time point, and any one of the images Applying one to the first neural network, generating the optical flow images using the images, and generating optical flow images including optical flows having the first direction among the generated optical flow images, the second neural network Predicting the water level of the reservoir by applying to; and
When it is determined that the predicted water level of the reservoir at the first time point is equal to or less than the first arbitrary water level, the processor receives images including the reservoir received from the camera at a fourth time point, and any one of the images is applied to the first neural network, the optical flow images are generated using the images, and optical flow images including optical flows having a second direction among the generated optical flow images are applied to the second neural network, Including predicting the water level of the reservoir,
The water level prediction method using a neural network, wherein the time interval between the first time point and the third time point is shorter than the time interval between the first time point and the second time point.
상기 프로세서는 상기 카메라에 구현된 센서로부터 센서 값을 수신하는 단계;
상기 프로세서는 상기 센서 값이 임의의 값 이상인지 판단하는 단계; 및
상기 센서 값이 임의의 값 이상일 때, 상기 프로세서는 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않는 단계를 포함하는 신경망을 이용한 수위 예측 방법.The method of claim 1, wherein the water level prediction method using the neural network,
receiving, by the processor, a sensor value from a sensor implemented in the camera;
determining, by the processor, whether the sensor value is greater than or equal to a predetermined value; and
and not applying, by the processor, the images to a first neural network and not applying the optical flow images to a second neural network when the sensor value is greater than or equal to a predetermined value.
상기 센서 값이 임의의 값 이상일 때, 상기 프로세서는 화면에서 경고 메시지를 표시하는 단계를 더 포함하는 신경망을 이용한 수위 예측 방법.The method of claim 2, wherein the water level prediction method using the neural network,
and displaying, by the processor, a warning message on a screen when the sensor value is greater than or equal to a predetermined value.
서버를 포함하며,
상기 서버는
상기 신경망을 이용한 수위 예측 명령들을 실행하는 프로세서; 및
상기 명령들을 저장하는 메모리를 포함하며,
상기 명령들은,
제1시점에서 상기 카메라로부터 저수지가 포함된 이미지들을 수신하며,
상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하며,
상기 제1시점에서 상기 이미지들을 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하며,
상기 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 선택하며,
상기 제1시점에서 상기 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하며,
상기 제1시점에서 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측하며,
상기 제1시점에서 상기 예측된 저수지의 수위가 제1임의의 수위 이상이고, 제2임의의 수위 이하인지 판단하며,
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제1임의의 수위 이상이고, 상기 제2임의의 수위 이하라고 판단될 때, 제2시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 상기 생성된 옵티컬 플로우 이미지들 중 상기 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하며,
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제2임의의 수위 이상이라 판단될 때, 제3시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 상기 생성된 옵티컬 플로우 이미지들 중 상기 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하며,
상기 제1시점에서 상기 예측된 저수지의 수위가 상기 제1임의의 수위 이하라 판단될 때, 제4시점에서 상기 카메라로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 상기 제1신경망에 적용하고, 상기 이미지들을 이용하여 상기 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 상기 제2신경망에 적용하여 상기 저수지의 수위를 예측하며,
상기 제1시점과 상기 제3시점 사이의 시간 간격은 상기 제1시점과 상기 제2시점 사이의 시간 간격보다 짧은 신경망을 이용한 수위 예측 시스템. a camera for taking pictures of the reservoir and generating images including the reservoir; and
including the server;
The server
a processor executing water level prediction commands using the neural network; and
a memory for storing the instructions;
These commands are
Receiving images including a reservoir from the camera at a first time point;
Generating optical flow images using the images;
At the first point in time, the images are applied to a first neural network to output a probability distribution of first results;
Selecting optical flow images including optical flows having a first direction from among the optical flow images,
Applying optical flow images including optical flows having the selected first direction at the first time point to a second neural network to output a probability distribution of second results;
Predicting the water level of the reservoir using the probability distribution of the first results and the probability distribution of the second results at the first time point,
Determining whether the predicted water level of the reservoir at the first time point is greater than or equal to a first arbitrary water level and less than or equal to a second arbitrary water level;
When it is determined that the predicted water level of the reservoir at the first time point is greater than or equal to the first arbitrary water level and less than or equal to the second arbitrary water level, receiving images including the reservoir received from the camera at the second time point; , Applying any one of the images to the first neural network, generating the optical flow images using the images, and optical flow including optical flows having the first direction among the generated optical flow images Applying the images to the second neural network to predict the water level of the reservoir,
When it is determined that the predicted water level of the reservoir at the first time point is equal to or higher than the second arbitrary water level, images including the reservoir received from the camera at a third time point are received, and one of the images is selected as the above image. Apply to the first neural network, generate the optical flow images using the images, and apply optical flow images including optical flows having the first direction among the generated optical flow images to the second neural network Predicting the water level of the reservoir,
When it is determined that the predicted water level of the reservoir at the first time point is equal to or less than the first arbitrary water level, images including the reservoir received from the camera at a fourth time point are received, and one of the images is selected as the first arbitrary water level. 1 applied to the neural network, generating the optical flow images using the images, and applying optical flow images including optical flows having a second direction among the generated optical flow images to the second neural network to obtain predict the level
The water level prediction system using a neural network, wherein the time interval between the first time point and the third time point is shorter than the time interval between the first time point and the second time point.
상기 카메라에 구현된 센서로부터 센서 값을 수신하며,
상기 센서 값이 임의의 값 이상인지 판단하며,
상기 센서 값이 임의의 값 이상일 때, 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않도록 구현되는 신경망을 이용한 수위 예측 시스템.
The method of claim 4, wherein the commands,
Receiving a sensor value from a sensor implemented in the camera;
Determining whether the sensor value is greater than or equal to an arbitrary value,
The water level prediction system using a neural network implemented not to apply the images to a first neural network and not to apply the optical flow images to a second neural network when the sensor value is greater than or equal to a certain value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220051933A KR102518554B1 (en) | 2022-04-27 | 2022-04-27 | Method and system for predicting water level |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220051933A KR102518554B1 (en) | 2022-04-27 | 2022-04-27 | Method and system for predicting water level |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102518554B1 true KR102518554B1 (en) | 2023-04-06 |
Family
ID=85918389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220051933A KR102518554B1 (en) | 2022-04-27 | 2022-04-27 | Method and system for predicting water level |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102518554B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101060031B1 (en) * | 2011-02-09 | 2011-08-29 | (주)유디피 | Device and method for monitoring water level |
KR101134631B1 (en) | 2010-05-07 | 2012-04-09 | 이메트릭스 주식회사 | Web-based drainage controlling system using a real-time water-level estimate |
KR101232185B1 (en) * | 2012-10-19 | 2013-02-12 | 브이씨에이 테크놀러지 엘티디 | Device and method for monitoring water level |
KR20190098774A (en) * | 2018-01-08 | 2019-08-23 | 경북대학교 산학협력단 | Apparatus and method for estimating flooding |
KR20210018850A (en) * | 2019-01-31 | 2021-02-18 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Video restoration method and device, electronic device and storage medium |
KR102319084B1 (en) * | 2021-04-23 | 2021-11-02 | 주식회사 아르스루퍼 | Intelligent water level detecting apparatus and method |
-
2022
- 2022-04-27 KR KR1020220051933A patent/KR102518554B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101134631B1 (en) | 2010-05-07 | 2012-04-09 | 이메트릭스 주식회사 | Web-based drainage controlling system using a real-time water-level estimate |
KR101060031B1 (en) * | 2011-02-09 | 2011-08-29 | (주)유디피 | Device and method for monitoring water level |
KR101232185B1 (en) * | 2012-10-19 | 2013-02-12 | 브이씨에이 테크놀러지 엘티디 | Device and method for monitoring water level |
KR20190098774A (en) * | 2018-01-08 | 2019-08-23 | 경북대학교 산학협력단 | Apparatus and method for estimating flooding |
KR20210018850A (en) * | 2019-01-31 | 2021-02-18 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Video restoration method and device, electronic device and storage medium |
KR102319084B1 (en) * | 2021-04-23 | 2021-11-02 | 주식회사 아르스루퍼 | Intelligent water level detecting apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321853B (en) | Distributed cable external-damage-prevention system based on video intelligent detection | |
US9582730B2 (en) | Estimating rainfall precipitation amounts by applying computer vision in cameras | |
WO2019107528A1 (en) | River risk level determining device, river risk level determining method, and storage medium | |
CN112104841B (en) | Multi-camera intelligent monitoring method for monitoring moving target | |
KR102518554B1 (en) | Method and system for predicting water level | |
KR102492866B1 (en) | Method and system for displaying flooding | |
KR102547768B1 (en) | Method and Apparatus for Detecting Real-time Anomaly in Video Surveillance System | |
CN114037087A (en) | Model training method and device, depth prediction method and device, equipment and medium | |
CN117011772B (en) | Risk prompting method, device and storage medium for power transmission line | |
JP4108593B2 (en) | Inundation monitoring device | |
US11148284B2 (en) | Controlling moveable robot blocks to dynamically form a barrier | |
CN115240394B (en) | Method and system for monitoring and early warning water level of accident oil pool of transformer substation | |
CN113222276B (en) | Ice-covering condition prediction method, device, computer equipment and storage medium | |
US11185988B2 (en) | Moveable robot block deployed to form a barrier and sense environmental conditions | |
CN114022681A (en) | Infrared image weak and small target detection method and system | |
CN102667853B (en) | Optical filter for binary sensor arranges study | |
KR102247113B1 (en) | Smart water management system | |
TWI569212B (en) | Image recognition method | |
CN104869285A (en) | Motion compensation method based on primary motion direction identification | |
US20230061238A1 (en) | A camera system and a method for determining a weather situation | |
KR20220146196A (en) | Smart water management system | |
Rio et al. | The Innovation Development of Early Flash Flood Warning System Based on Digital Image Processing Through Android Smartphone. | |
JP5799123B2 (en) | Direct light presence / absence judgment device | |
JP2018082405A (en) | Processor switching apparatus, monitoring camera, processor switching method, control program, and recording medium | |
CN117689501B (en) | Reservoir flood prevention dynamic forecasting and early warning method and system platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |