KR102492866B1 - 3차원 모델링을 이용한 침수 표시 방법 및 시스템 - Google Patents
3차원 모델링을 이용한 침수 표시 방법 및 시스템 Download PDFInfo
- Publication number
- KR102492866B1 KR102492866B1 KR1020220051934A KR20220051934A KR102492866B1 KR 102492866 B1 KR102492866 B1 KR 102492866B1 KR 1020220051934 A KR1020220051934 A KR 1020220051934A KR 20220051934 A KR20220051934 A KR 20220051934A KR 102492866 B1 KR102492866 B1 KR 102492866B1
- Authority
- KR
- South Korea
- Prior art keywords
- reservoir
- processor
- water level
- images
- grids
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 178
- 230000003287 optical effect Effects 0.000 claims description 96
- 238000013528 artificial neural network Methods 0.000 claims description 78
- 238000007654 immersion Methods 0.000 claims description 3
- 238000001363 water suppression through gradient tailored excitation Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000006424 Flood reaction Methods 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Geometry (AREA)
- Water Supply & Treatment (AREA)
- Public Health (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
3차원 모델링을 이용한 침수 표시 방법이 개시된다. 상기 3차원 모델링을 이용한 침수 표시 방법은 프로세서가 저수지의 수위와 범람 시기를 예측하는 단계, 및 상기 프로세서는 상기 침수되는 저수지 주변의 위치를 디스플레이에 표시하는 단계를 포함한다. 상기 저수지의 수위를 예측하는 단계는 상기 프로세서가 카메라로부터 저수지가 포함된 이미지들을 수신하는 단계, 상기 프로세서는 상기 이미지들을 이용하여 위로 향하는 방향을 갖는 옵티컬 플로우들과 아래로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 생성하는 단계, 상기 프로세서는 상기 저수지의 영역을 식별하기 위해 상기 이미지들 중 어느 하나를 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하는 단계, 상기 프로세서는 상기 옵티컬 플로우 이미지들 중 상기 위로 향하는 방향을 갖는 옵티컬 플로우들을 선택하는 단계, 상기 프로세서는 상기 선택된 위로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하는 단계, 및 상기 프로세서는 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱으로 상기 저수지의 수위를 예측하는 단계를 포함하며, 상기 침수되는 저수지 주변의 위치를 디스플레이에 표시하는 단계는 상기 프로세서는 상기 이미지들 중 어느 하나에 높이 정보를 추가하는 단계, 상기 프로세서는 상기 이미지들 중 어느 하나를 복수의 그리드들로 나누는 단계, 상기 프로세서는 상기 이미지들 중 어느 하나로부터 높이 정보를 추출하여 상기 복수의 그리드들에 상기 높이 정보를 추가하는 단계, 상기 프로세서는 복수의 그리드들 중 상기 저수지와 인접한 그리드들 중 가장 높이가 낮은 그리드를 선택하는 단계, 상기 프로세서는 상기 복수의 그리드들 사이의 높이 차이를 계산하는 단계, 상기 프로세서는 상기 가장 높이가 낮은 그리드에서 상기 높이 차이가 가장 큰 그리드를 선택하는 단계, 및 상기 프로세서는 상기 높이 차이에 따라 상기 복수의 그리드들을 서로 다른 픽셀들로 디스플레이에 표시하는 단계를 포함한다.
Description
본 발명은 3차원 모델링을 이용한 침수 표시 방법 및 시스템에 관한 것으로, 상세하게는 침수가 예상되는 지역을 표시하기 위한 3차원 모델링을 이용한 침수 표시 방법 및 시스템에 관한 것이다.
홍수시 수량을 조절하기 위해 수문이 하천, 또는 저수지에 설치된다. 하천, 또는 저수지의 침수 여부를 원격에서 실시간으로 판단하기 위해 침수 지역을 표시하기 위한 방법이 요구된다.
본 발명이 이루고자 하는 기술적인 과제는 3차원 모델링을 이용한 침수 표시 방법 및 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법은 프로세서가 카메라로부터 저수지가 포함된 이미지들을 수신하는 단계, 상기 프로세서는 상기 이미지들 중 어느 하나에 높이 정보를 추가하는 단계, 상기 프로세서는 상기 이미지들 중 어느 하나를 복수의 그리드들로 나누는 단계, 상기 프로세서는 복수의 그리드들 중 상기 저수지와 인접한 그리드들 중 가장 낮은 높이 값을 갖는 그리드를 선택하는 단계, 상기 프로세서는 상기 복수의 그리드들 사이의 높이 차이를 계산하는 단계, 상기 프로세서는 상기 가장 낮은 높이 값을 갖는 그리드에서 상기 높이 차이가 가장 큰 그리드를 선택하는 단계, 상기 프로세서는 상기 높이 차이가 가장 큰 그리드에 대해 침수 확률을 제1확률로 표시하는 단계, 상기 프로세서는 상기 가장 낮은 높이 값을 갖는 그리드의 인접 그리드들 중 상기 높이 차이가 가장 큰 그리드를 제외한 나머지 그리드들에 대해 침수 확률을 제2확률로 표시하는 단계, 상기 프로세서는 상기 제1확률과 상기 제2확률에 따라 상기 복수의 그리드들에 대해 서로 다른 픽셀 값들로 디스플레이에 표시하는 단계를 포함한다.
본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법은 상기 프로세서가 상기 저수지의 수위와 범람 시기를 예측하는 단계, 및 상기 프로세서는 상기 범람 시기를 상기 디스플레이에 표시하는 단계를 더 포함하고, 상기 저수지의 수위 예측은 상기 프로세서가 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하는 단계, 상기 프로세서가 상기 이미지들을 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하는 단계, 상기 프로세서는 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하는 단계, 및 상기 프로세서는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측하는 단계를 포함한다.
본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법 및 시스템은 침수가 예상되는 지역을 판단함으로써 침수 예상 지역을 표시할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 시스템의 블록도를 나타낸다.
도 2는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 개념도를 나타낸다.
도 3은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법의 추가적인 동작을 설명하기 위한 개념도를 나타낸다.
도 4는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 흐름도를 나타낸다.
도 5는 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 이미지를 나타낸다.
도 6은 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 흐름도를 나타낸다.
도 1은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 시스템의 블록도를 나타낸다.
도 2는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 개념도를 나타낸다.
도 3은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법의 추가적인 동작을 설명하기 위한 개념도를 나타낸다.
도 4는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 흐름도를 나타낸다.
도 5는 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 이미지를 나타낸다.
도 6은 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 흐름도를 나타낸다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않은 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 시스템의 블록도를 나타낸다.
도 1을 참고하면, 3차원 모델링을 이용한 침수 표시 시스템(100)은 침수가 예상되는 지역을 표시하기 위한 시스템이다. 3차원 모델링을 이용한 침수 표시 시스템(100)은 서버(10), 제1센서 그룹(SG1), 및 제2센서 그룹(SG2)을 포함한다.
제1센서 그룹(SG1)은 제1IP 카메라(13), 제1습도계(15), 제1내부 수위계(17), 제1수문 권양기(19), 제1기압계(21), 제1강우량 센서(23), 제1외부 수위계(25), 및 제1RTU(Remote Terminal Unit; 27)을 포함한다.
제1IP 카메라(13)는 제1수문(11)이 위치한 제1지역(R1)의 주변을 촬영한다. 제1IP 카메라(13)는 촬영된 영상을 무선으로 서버(10)로 전송한다. 제1지역(R1)의 주변이란 제1수문(11)을 포함한 지역을 의미할 수 있다. 제1수문(11)은 저수지에 설치되며, 홍수 예측시 제1수문(11)이 개방된다. 실시 예에 따라 제1수문(11)이 설치되는 위치, 형태는 다양할 수 있다. 예컨대, 제1수문(11)은 하천, 보, 또는 간척지 등 다양한 곳에서 설치될 수 있다. 경우에 따라 홍수 예측시 제1수문(11)이 폐쇄될 수 있다.
제1습도계(15)는 제1지역(R1)에서 습도를 측정한다.
제1내부 수위계(17)는 제1수문(11)의 내부 수위를 측정한다. 제1수문(11)의 내부 수위란 저수지 내부의 수위를 의미한다.
제1수문 권양기(19)는 제1수문(11)을 제어한다. 제1수문 권양기(19)를 통해 제1수문(11)이 열리거나, 닫힐 수 있다. 서버(10)는 제1수문 권양기(19)를 제어할 수 있다. 서버(10)의 명령에 따라 제1수문(11)를 열거나 닫기 위해 제1수문 권양기(19)를 제어한다. 관리자가 아니라 서버(10)에서 제1수문(11)을 열거나 닫도록 명령함으로써 원격에서 자동으로 제1수문(11)을 제어할 수 있다.
제1기압계(21)는 제1지역(R1)에서 기압을 측정한다.
제1강우량 센서(23)는 제1지역(R1)에서 비의 양을 측정한다.
제1수문(11)이 열릴 때, 제1외부 수위계(25)는 제1수문(11)의 외부 수위를 측정한다. 제1수문(11)의 외부 수위란 저수지와 연결된 하천에 흐르는 수위를 의미한다. 제1외부 수위계(25)는 제1수문(11)이 제대로 열렸는지 확인하기 위해 이용된다. 제1수문(11)이 제대로 열릴 때, 하천에 물이 흘러 제1외부 수위계(25)에 의해 측정되는 수위의 변화가 있을 것이다.
제1RTU(27)는 제1습도계(15)로부터 측정된 제1습도 데이터, 제1내부 수위계(17)로부터 측정된 제1수위 데이터, 제1기압계(21)로부터 측정된 제1기압 데이터, 및 제1강우량 센서(23)로부터 측정된 제1강우량 데이터를 수신한다. 제1RTU(27)는 제1습도계(15), 제1내부 수위계(17), 제1기압계(21), 및 제1강우량 센서(23)와 케이블로 연결된다. 실시 예에 따라 제1RTU(27)는 제1수문 권양기(19)와 연결될 수 있다. 제1RTU(27)와 제1수문 권양기(19)가 연결될 때, 서버(10)는 제1RTU(27)를 통해 제1수문 권양기(19)를 제어하여 제1수문(11)을 원격으로 여닫을 수 있다. 3차원 모델링을 이용한 침수 표시 시스템(100)은 SCADA(Supervisory Control And Data Acquisition) 시스템으로 구현될 수 있다. 제1RTU(27)는 서버(10)와 IEC 60870-5-101, IEC 61850, 또는 DNP3 등과 같은 통신 프로토콜로 통신할 수 있다.
제2센서 그룹(SG2)은 제2IP 카메라(33), 제2습도계(35), 제2기압계(41), 제2강우량 센서(43), 및 제2RTU(47)을 포함한다.
제2IP 카메라(33)는 제1지역(R1)으로부터 임의의 거리 이상 떨어진 제2지역(R2)의 주변을 촬영한다. 제2IP 카메라(33)는 촬영된 영상을 무선으로 서버(10)로 전송한다. 제2지역(R2)이란 제1지역(R1)으로부터 임의의 거리 이상 떨어진 지역을 의미한다.
제2습도계(35)는 제2지역(R2)에서 습도를 측정한다.
제2강우량 센서(43)는 제2지역(R2)에서 비의 양을 측정한다.
제2기압계(41)는 제2지역(R2)에서 기압을 측정한다.
또한, 실시 예에 따라 제2센서 그룹(SG2)은 제2수문(31)을 더 포함할 수 있다. 제2수문(31)은 홍수 예측시 개방된다. 실시 예에 따라 제2수문(31)이 설치되는 위치, 형태는 다양할 수 있다. 경우에 따라 홍수 예측시 제2수문(31)이 폐쇄될 수 있다.
제2센서 그룹(SG2)은 제2수문(31)을 더 포함할 때, 제2센서 그룹(SG2)은 제2내부 수위계(37), 제2수문 권양기(39), 및 제2외부 수위계(45)를 더 포함한다.
제2내부 수위계(37)는 제2수문(31)의 내부 수위를 측정한다. 제2수문(31)의 내부 수위란 저수지 내부의 수위를 의미한다. 같은 저수지에 제1, 2내부 수위계(17, 37)가 설치되었다 하더라도, 저수지의 지형에 따라 제1내부 수위계(17)가 측정한 수위와 제2내부 수위계(37)가 측정한 수위는 다를 수 있다.
제2수문 권양기(39)는 제2수문(31)을 제어한다. 제2수문 권양기(39)를 통해 제2수문(31)이 열리거나, 닫힐 수 있다. 서버(10)는 제2수문 권양기(39)를 제어할 수 있다. 서버(10)의 명령에 따라 제2수문(31)을 열거나 닫기 위해 제2수문 권양기(39)를 제어한다. 관리자가 아니라 서버(10)에서 제2수문(31)을 열거나 닫도록 명령함으로써 원격에서 자동으로 제2수문(31)을 제어할 수 있다.
제2수문(31)이 열릴 때, 제2외부 수위계(45)는 제2수문(31)의 외부 수위를 측정한다. 제2수문(31)의 외부 수위란 저수지와 연결된 하천에 흐르는 수위를 의미한다. 제2외부 수위계(45)는 제2수문(31)이 제대로 열렸는지 확인하기 위해 이용된다. 제2수문(31)이 제대로 열릴 때, 하천에 물이 흘러 제2외부 수위계(45)에 의해 측정되는 수위의 변화가 있을 것이다.
제2RTU(47)는 제2습도계(35)로부터 측정된 제2습도 데이터, 제2내부 수위계(37)로부터 측정된 제2수위 데이터, 제2기압계(41)로부터 측정된 제2기압 데이터, 또는 제2강우량 센서(43)로부터 측정된 제2강우량 데이터를 수신한다. 제2RTU(47)는 제2습도계(35), 제2내부 수위계(37), 제2기압계(41), 또는 제2강우량 센서(43)와 케이블로 연결된다. 실시 예에 따라 제2RTU(47)는 제2수문 권양기(39)와 연결될 수 있다. 제2RTU(47)와 제2수문 권양기(39)가 연결될 때, 서버(10)는 제2RTU(47)를 통해 제2수문 권양기(39)를 제어하여 제2수문(31)을 원격으로 여닫을 수 있다. 3차원 모델링을 이용한 침수 표시 시스템(100)은 SCADA(Supervisory Control And Data Acquisition) 시스템으로 구현될 수 있다. 제2RTU(47)는 서버(10)와 IEC 60870-5-101, IEC 61850, 또는 DNP3 등과 같은 통신 프로토콜로 통신할 수 있다.
서버(10)는 서버(10)의 요청 신호에 따라 제1RTU(27)로부터 상기 제1습도 데이터를 수신하고, 제2RTU(47)로부터 상기 제2강우량 데이터를 수신한다. 또한, 서버(10)는 제1IP 카메라(13)와 제2IP 카메라(33) 각각으로부터 촬영된 제1영상과 제2영상을 각각 수신한다.
서버(10)는 상기 제1영상, 상기 제2영상, 상기 제1습도 데이터, 및 상기 제2강우량 데이터를 입력으로 신경망 알고리즘을 적용하여 제1지역(R1)과 제2지역(R2)의 예상 수위를 예측한다.
상기 신경망 알고리즘은 DNN, 또는 CNN으로 구현될 수 있다. 서버(10)는 프로세서(50)와 메모리(60)를 포함한다. 프로세서(50)에 의해 상기 신경망 알고리즘이 수행된다. 상기 신경망 알고리즘은 메모리(60)에 저장된다. 또한, 프로세서(50)는 신경망을 이용한 수위 예측 명령들을 실행한다. 또한, 프로세서(50)는 3차원 모델링을 이용한 침수 표현 명령들을 실행한다. 상기 명령들은 메모리(60)에 저장된다. 이하, 프로세서(50)의 동작은 서버(10)의 동작으로 이해될 수 있다.
실시 예에 따라 3차원 모델링을 이용한 침수 표시 시스템(100)은 카메라(70)를 더 포함할 수 있다. 카메라(70)는 IP 카메라일 수 있다. 카메라(70)는 저수지 주변을 촬영한다.
도 2는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 개념도를 나타낸다.
도 1과 도 2를 참고하면, 프로세서(50)는 카메라(70)로부터 저수지가 포함된 이미지들(FR)을 수신한다.
프로세서(50)는 이미지들(FR)을 이용하여 옵티컬 플로우 이미지들(OFG)을 생성한다. 옵티컬 플로우 이미지들(OFG)은 저수지가 포함된 이미지들(FR) 중 연속되는 이미지들 사이의 객체의 움직임이 표현된 이미지들을 의미한다. 옵티컬 플로우는 저수지가 포함된 이미지들(FR) 중 연속되는 이미지들 사이의 차이로 생성될 수 있다. 옵티컬 플로우 이미지들(OFG)은 제1방향을 갖는 옵티컬 플로우들과 제2방향을 갖는 옵티컬 플로우들을 포함한다. 상기 제1방향은 위로 향하는 방향을 의미하고, 상기 제2방향은 아래로 향하는 방향을 의미한다. 즉, 상기 제1방향과 상기 제2방향은 서로 다른 방향이다. 저수지가 포함된 이미지들(FR)에서 제1방향을 갖는 옵티컬 플로우는 수위의 상승을 의미하며, 제2방향을 갖는 옵티컬 플로우는 수위의 하강을 의미한다.
프로세서(50)는 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하여 제1결과들의 확률 분포를 출력한다. 제1신경망(NN1)은 CNN(Convolutional Neural Network)일 수 있다. 제1신경망(NN1)은 컨볼루션 레이어들(convolution layers), 풀리 커넥티드 레이어(fully connected layers), 및 소프트맥스(softmax) 함수를 포함한다. 제1결과들 각각은 0에서 1사이의 값을 가진다. 제1결과들의 확률 분포를 통해 저수지 영역이 식별될 수 있다.
프로세서(50)는 옵티컬 플로우 이미지들(OFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력한다. 제2신경망(NN2)는 CNN일 수 있다. 제2신경망(NN2)은 컨볼루션 레이어들, 풀리 커넥티드 레이어, 및 소프트맥스 함수를 포함한다. 제2결과들 각각은 0에서 1사이의 값을 가진다. 제2결과들의 확률 분포를 통해 크기가 식별될 수 있다.
프로세서(50)는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측한다. 상기 저수지의 수위를 예측한다함은 상기 저수지의 높이를 추정한다는 의미이다. 또한, 실시 예에 따라 상기 저수지의 수위를 예측한다함은 미래의 상기 저수지의 높이를 예측한다는 의미일 수 있다. 이때, 제1신경망(NN1)과 제2신경망(NN2)은 미래의 상기 저수지의 높이를 예측하기 위해 과거의 저수지의 높이에 대한 데이터틀 이용하여 학습될 수 있다. 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포의 이용은 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱을 의미한다. 즉, 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱으로 상기 저수지의 수위가 예측된다.
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들, 또는 제2방향을 갖는 옵티컬 플로우들을 선택한다. 예컨대, 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들을 선택할 수 있다. 상기 제1방향은 위로 향하는 방향을 의미한다. 실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제2방향을 갖는 옵티컬 플로우들을 선택할 수 있다. 상기 제2방향은 아래로 향하는 방향을 의미한다.
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들을 선택하고, 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력할 수 있다. 제2신경망(NN2)에 옵티컬 플로우 이미지들(OFG)을 적용하는 것이 아니라, 선택된 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용함으로써 신경망의 연산 부담 감소 및 처리 속도 향상이 가능하다. 옵티컬 플로우 이미지들(OFG) 중 제1방향을 갖는 옵티컬 플로우들만을 선택함으로써 저수지에서 수위 상승이 예측될 수 있다. 저수지에서 주로 문제가 되는 것은 저수지의 범람이므로 수위 상승이 수위 하락보다는 더 중요하다.
실시 예에 따라 프로세서(50)는 옵티컬 플로우 이미지들(OFG) 중 제2방향을 갖는 옵티컬 플로우들을 선택하고, 선택된 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력할 수도 있다.
실시 예에 따라 프로세서(50)는 카메라(70)에 구현된 센서(71)로부터 센서 값을 수신한다. 센서(71)는 풍향 센서, 또는 자이로 센서일 수 있다.
프로세서(50)는 상기 센서 값이 임의의 값 이상인지 판단한다.
상기 센서 값이 임의의 값 이상일 때, 프로세서(50)는 상기 이미지들을 제1신경망에 적용하지 않고, 상기 옵티컬 플로우 이미지들을 제2신경망에 적용하지 않는다.
상기 센서 값이 임의의 값 이상일 때, 카메라(70)는 많이 흔들림을 의미하므로, 카메라(70)에 의해 생성된 저수지가 포함된 이미지들(FR)을 신뢰할 수 없기 때문이다.
또한, 상기 센서 값이 임의의 값 이상일 때, 프로세서(50)는 화면(미도시)에서 경고 메시지를 디스플레이(55)에 표시한다. 예컨대, 상기 경고 메시지는 현재 바람이 많이 불고 있어서 수위 예측은 할 수 없다는 메시지일 수 있다. 디스플레이(55)는 서버(10)의 디스플레이로, 서버(10)의 관리자가 디스플레이(55)를 통해 이를 볼 수 있다.
도 3은 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법의 추가적인 동작을 설명하기 위한 개념도를 나타낸다.
도 1 내지 도 3의 (a)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다. 제1방향은 위로 향하는 방향을 의미한다. 도 3의 (a)에서 각 시점(T1, T2, T3, 및 T4)에서 화살표는 제1방향을 나타낸다.
프로세서(50)는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다.
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라고 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
제1시점(T1)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다.
프로세서(50)는 제2시점(T2)에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다.
제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라고 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다.
유사한 방법으로 제4시간(T4)에서도 프로세서(50)는 제2시점(T2)에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다. 이때, 제1시점(T1), 제2시점(T2), 제3시점(T3), 및 제4시점(T4) 사이의 시간 간격(I12, I23, 또는 I34)은 동일하다.
즉, 프로세서(50)는 특정 시점에서 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하일 때, 일정한 시간 간격으로 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 이용하여 다른 시점에서 저수지의 수위를 예측한다.
프로세서(50)는 저수지의 수위를 예측하여 장래에 저수지의 범람 시기를 예측한다. 프로세서(50)는 예측된 저수지의 범람 시기를 디스플레이(55)에 표시할 수 있다.
도 1 내지 도 3의 (b)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
도 3의 (b)에서 각 시점(T1, T2, T3, 및 T4)에서 화살표의 크기는 수위의 높이를 상대적으로 나타낸다. 즉, 각 시점(T1, T2, T3, 및 T4)에서 화살표의 크기가 클수록 수위가 높음을 나타내고, 화살표의 크기가 작을수록 수위가 낮음을 나타낸다.
프로세서(50)는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하인지 판단한다.
제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
이때, 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위 이상이라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (a)에서 I12)보다 짧다. 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')이 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (a)에서 I12)보다 짧은 이유는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 저수지의 범람이 예상될 수 있으므로, 더 짧은 시간에 계속해서 저수지의 수위을 예측하기 위함이다.
제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들과 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들은 서로 다른 시점에서 생성된 이미지들이다.
이때, 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제2시간(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (b)에I23에서 은 제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제2시점(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (a)에서 I23)보다 짧다. 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때, 저수지의 범람이 예상될 수 있으므로, 더 짧은 시간에 계속해서 저수지의 수위을 예측하기 위함이다.
제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때, 프로세서(50)는 제4시점(T4)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
이때, 제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때의 제3시간(T3)과 제4시점(T4) 사이의 시간 간격(도 3의 (b)에서 I34')은 제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위 이상이라 판단될 때의 제2시점(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (b)에서 I23')보다 길다. 제3시점(T3)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이상이고, 제2임의의 수위(Th2) 이하라 판단될 때, 더 이상의 저수지의 범람이 예상되지 않는다고 판단하여, 더 짧은 시간에 계속해서 저수지의 수위을 예측할 필요가 없기 때문이다.
즉, 프로세서(50)는 저수지의 범람이 예측될 때에는 저수지의 예측 시점을 앞당김으로써 저수지의 범람이 신속하게 모니터링될 수 있다.
도 1 내지 도 3의 (c)을 참고하면, 제1시점(T1)에서 프로세서(50)는 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 이미지들(FR) 중 어느 하나를 제1신경망(NN1)에 적용하고, 프로세서(50)는 옵티컬 플로우 이미지들(OFG)중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들(SOFG)을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라고 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제1방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때, 프로세서(50)는 제2시점(T2)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
이때, 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 이용하여 저수지의 수위를 예측하는 이유는 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단되어 저수지의 범람이 예측되지 않기 때문이다. 오히려 저수지의 수위 하락의 가능성이 있다.
이때, 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때의 제1시간(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (c)에서 I12'')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이상이라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (b)에서 I12')보다 길다.
제2시점(T2)에서 상기 예측된 저수지의 수위가 제2임의의 수위(Th2) 이하라 판단될 때, 프로세서(50)는 제3시점(T3)에서 카메라(70)로부터 수신된 저수지가 포함된 이미지들을 수신하고, 상기 이미지들 중 어느 하나를 제1신경망(NN1)에 적용하고, 상기 이미지들을 이용하여 옵티컬 플로우 이미지들을 생성하고, 생성된 옵티컬 플로우 이미지들 중 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측한다.
이때, 제2시점(T2)에서 상기 예측된 저수지의 수위가 제1임의의 수위 이하라 판단될 때의 제2시간(T2)과 제3시점(T3) 사이의 시간 간격(도 3의 (c)에서 I23'')은 제1시점(T1)에서 상기 예측된 저수지의 수위가 제1임의의 수위(Th1) 이하라 판단될 때의 제1시점(T1)과 제2시점(T2) 사이의 시간 간격(도 3의 (c)에서 I12'')과 같다.
유사한 방법으로 제4시간(T4)에서도 프로세서(50)는 제3시점(T3)에서 예측된 저수지의 수위가 제1임의의 수위 이하인지 판단한다.
즉, 프로세서(50)는 제1시점에서 예측된 저수지의 수위가 제1임의의 수위 (Th1)이하일 때, 제2시점에서는 제2방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망(NN2)에 적용하여 상기 저수지의 수위를 예측함으로써 저수자의 수위 하락이 예측될 수 있다.
프로세서(50)는 제1시점에서 예측된 저수지의 수위에 따라 제2시점에서 다른 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 폴로우 이미지들을 이용하든지, 저수지의 수위를 예측하는 제2시점을 다르게 하여 저수지의 수위를 저수위 수위 변화에 따라 예측할 수 있다.
도 4는 본 발명의 실시 예에 따른 신경망을 이용한 수위 예측 방법을 설명하기 위한 흐름도를 나타낸다.
도 1, 도 2, 및 도 4를 참고하면, 프로세서(50)가 카메라(70)로부터 저수지가 포함된 이미지들(FR)을 수신한다(S10).
프로세서(50)가 상기 이미지들(FR)을 이용하여 옵티컬 플로우 이미지들(OFG)을 생성한다(S20).
프로세서(50)가 상기 이미지들(FR)을 제1신경망(NN1)에 적용하여 제1결과들의 확률 분포를 출력한다(S30).
프로세서(50)는 상기 옵티컬 플로우 이미지들(OFG)을 제2신경망(NN2)에 적용하여 제2결과들의 확률 분포를 출력한다(S40).
프로세서(50)는 상기 제1결과들의 확률 분포와 상기 제2결과들의 확률 분포를 이용하여 상기 저수지의 수위를 예측한다(S50).
이하, 프로세서(50)에 의해 저수지의 수위가 범람으로 예측될 때, 프로세서(50)는 침수되는 저수지 주변의 위치를 디스플레이(55)에 표시하기 위한 방법이 개시된다.
도 1을 참고하면, 프로세서(50)는 카메라(70)로부터 저수지가 포함된 이미지들을 수신한다.
도 5는 본 발명의 실시 예에 따른 3차원 모델링을 이용한 침수 표시 방법을 설명하기 위한 이미지를 나타낸다.
도 1과 도 5를 참고하면, 프로세서(50)는 상기 이미지들 중 어느 하나(예컨대, FR3)에 높이 정보를 추가한다. 상기 높이 정보는 저수지와 저수지를 포함한 주변 지형(예컨대, 언덕)의 높이 정보를 의미한다. 상기 높이 정보는 네트워크를 통해 다른 서버(미도시)로부터 수신될 수 있다. 상기 높이 정보는 항공기에 부착된 라이다를 이용하여 생성될 수 있다. 상기 이미지들 중 어느 하나의 높이 정보가 추가되었다함은 각 이미지에 포함된 지형물(예컨대, 저수지, 땅, 또는 다양한 객체들)에 대한 높이 정보가 추가되었음을 의미한다.
프로세서(50)는 상기 이미지들 중 어느 하나(예컨대, FR3)를 복수의 그리드들(G1~Gi; i는 자연수)로 나눈다.
프로세서(50)는 상기 이미지들 중 어느 하나(FR3)를 제1사이즈를 갖는 복수의 그리드들(G1~Gi)로 나눈다. 상기 이미지들 중 어느 하나(FR3)는 상기 높이 정보가 추가된 이미지를 의미한다.
실시 예에 따라 프로세서(50)는 복수의 그리드들(G1~Gi) 각각에서 가장 높은 높이 값과 가장 낮은 높이 값을 비교한다. 예컨대, i번째 그리드(Gi)에서 가장 높은 높이 값(Hmax)와 가장 낮은 높이 값(Hmin)을 비교한다.
상기 가장 높은 높이 값(Hmax)과 상기 가장 낮은 높이 값(Hmin)의 차이가 임의의 값 이상인 그리드가 존재할 때, 프로세서(50)는 상기 가장 높은 높이 값(Hmax)과 상기 가장 낮은 높이 값(Hmin)의 차이가 임의의 값 이하가 되도록 상기 그리드를 제2사이즈를 갖는 그리드들(예컨대, Gi1~Gi4)로 나눈다. 상기 제1사이즈는 상기 제2사이즈보다 크다.
프로세서(50)는 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)를 선택한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7)이란 그리드의 일부가 저수지를 나타내는 그리드들을 의미한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 먼저 저수지에서 넘친 물이 흐를 것이다.
프로세서(50)는 상기 복수의 그리드들(G1~Gi) 사이의 높이 차이를 계산한다. 구체적으로, 프로세서(50)는 상기 복수의 그리들(G1~Gi) 각각에서 가장 높은 높이 값(예컨대, H1~H10)을 이용하여 높이 차이를 계산할 수 있다. 또한, 프로세서(50)는 상기 복수의 그리드들 각각에서 가장 낮은 높이 값을 이용하여 높이 차이를 계산할 수 있다.
프로세서(50)는 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 높이 차이가 가장 큰 그리드(예컨대, G9)를 선택한다.
프로세서(50)는 상기 높이 차이가 가장 큰 그리드(예컨대, G9)에 대해 침수 확률을 제1확률로 표시한다. 상기 저수지와 인접한 그리드들(예컨대, G1~G7) 중 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)에서 높이 차이가 가장 큰 그리드(예컨대, G9)에서 먼저 물이 흐를 것이다.
프로세서(50)는 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)의 인접 그리드들(예컨대, G3, G5, G8, G9, 및 G10) 중 상기 높이 차이가 가장 큰 그리드(예컨대, G9)를 제외한 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에 대해 침수 확률을 제2확률로 표시한다. 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)와 높이 차이가 가장 큰 그리드(예컨대, G9)에서 먼저 물이 흐르고, 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)로 순차적으로 물이 흐를 것이다. 따라서 상기 가장 낮은 높이 값(예컨대, H4)을 갖는 그리드(예컨대, G4)와 높이 차이가 가장 큰 그리드(예컨대, G9)에서 침수 확률이 더 높고, 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에는 상대적으로 침수 확률이 낮다. 저수지에서 범람되는 물의 양이 적을 때에는 나머지 그리드들(예컨대, G3, G5, G8, 및 G10)에는 침수되지 않을 수 있다. 즉, 상기 제1확률은 상기 제2확률보다 높다.
프로세서(50)는 상기 제1확률과 상기 제2확률에 따라 상기 복수의 그리드들에 대해 서로 다른 픽셀 값들로 디스플레이(55)에 표시한다. 상기 제1확률에 따른 그리드(예컨대, G4)는 어두운 컬러를 갖는 픽셀 값을 가질 수 있고, 상기 제2확률에 따른 그리드들(예컨대, G3, G5, G8, 및 G10)은 상대적으로 밝은 컬러를 갖는 픽셀 값을 가질 수 있다.
저수지의 범람에 대한 침수 확률을 미리 디스플레이(55)에 표시하도록 함으로써 서버(10)의 관리자는 저수지의 범람에 따른 침수 지역을 미리 판단할 수 있는 효과가 있다. 또한, 본 발명은 복잡한 수식을 이용하지 않고도 범람 지역을 예측할 수 있는 효과가 있다.
프로세서(50)는 상기 침수로 표시되는 그리드들과 자산 사이의 거리를 계산한다. 상기 자산은 논, 밭, 또는 집 등 재산적인 가치를 지닌 객체를 의미한다.
상기 거리가 임의의 거리 이하일 때, 프로세서(50)는 디스플레이(55)에 경고 메시지를 표시한다.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100: 3차원 모델링을 이용한 침수 표시 시스템;
10: 서버;
50: 프로세서;
60: 메모리;
70: 카메라;
71: 센서;
10: 서버;
50: 프로세서;
60: 메모리;
70: 카메라;
71: 센서;
Claims (4)
- 프로세서가 저수지의 수위와 범람 시기를 예측하는 단계, 및
상기 프로세서는 침수되는 저수지 주변의 위치를 디스플레이에 표시하는 단계를 포함하며,
상기 저수지의 수위를 예측하는 단계는,
상기 프로세서가 카메라로부터 저수지가 포함된 이미지들을 수신하는 단계;
상기 프로세서는 상기 이미지들을 이용하여 위로 향하는 방향을 갖는 옵티컬 플로우들과 아래로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 생성하는 단계;
상기 프로세서는 상기 저수지의 영역을 식별하기 위해 상기 이미지들 중 어느 하나를 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하는 단계;
상기 프로세서는 상기 옵티컬 플로우 이미지들 중 상기 위로 향하는 방향을 갖는 옵티컬 플로우들을 선택하는 단계;
상기 프로세서는 상기 선택된 위로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하는 단계; 및
상기 프로세서는 상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱으로 상기 저수지의 수위를 예측하는 단계를 포함하며,
상기 침수되는 저수지 주변의 위치를 디스플레이에 표시하는 단계는,
상기 프로세서는 상기 이미지들 중 어느 하나에 높이 정보를 추가하는 단계;
상기 프로세서는 상기 이미지들 중 어느 하나를 복수의 그리드들로 나누는 단계;
상기 프로세서는 복수의 그리드들 중 상기 저수지와 인접한 그리드들 중 가장 낮은 높이 값을 갖는 그리드를 선택하는 단계;
상기 프로세서는 상기 복수의 그리드들 사이의 높이 차이를 계산하는 단계;
상기 프로세서는 상기 가장 낮은 높이 값을 갖는 그리드에서 상기 높이 차이가 가장 큰 그리드를 선택하는 단계; 및
상기 프로세서는 상기 높이 차이에 따라 상기 복수의 그리드들을 서로 다른 픽셀들로 디스플레이에 표시하는 단계를 포함하는 3차원 모델링을 이용한 침수 표시 방법. - 제1항에 있어서, 상기 3차원 모델링을 이용한 침수 표시 방법은,
상기 프로세서는 상기 침수로 표시되는 그리드들과 자산 사이의 거리를 계산하는 단계;
상기 거리가 임의의 거리 이하일 때, 상기 프로세서는 상기 디스플레이에 경고 메시지를 표시하는 단계를 더 포함하는 3차원 모델링을 이용한 침수 표시 방법. - 저수지를 촬영하여 저수지가 포함된 이미지들을 생성하는 카메라; 및
서버를 포함하며,
상기 서버는,
3차원 모델링을 이용한 침수 표시 명령들을 실행하는 프로세서; 및
상기 명령들을 저장하는 메모리를 포함하며,
상기 명령들은,
상기 저수지의 수위와 범람 시기를 예측하며,
상기 침수되는 저수지 주변의 위치를 디스플레이에 표시하도록 구현되며,
상기 저수지의 수위를 예측하는 명령들은,
상기 카메라로부터 상기 저수지가 포함된 이미지들을 수신하며,
상기 이미지들을 이용하여 위로 향하는 방향을 갖는 옵티컬 플로우들과 아래로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 생성하며,
상기 저수지의 영역을 식별하기 위해 상기 이미지들 중 어느 하나를 제1신경망에 적용하여 제1결과들의 확률 분포를 출력하며,
상기 옵티컬 플로우 이미지들 중 상기 위로 향하는 방향을 갖는 옵티컬 플로우들을 선택하며,
상기 선택된 위로 향하는 방향을 갖는 옵티컬 플로우들을 포함하는 옵티컬 플로우 이미지들을 제2신경망에 적용하여 제2결과들의 확률 분포를 출력하며,
상기 제1결과들 중 가장 큰 확률과 상기 제2결과들 중 가장 큰 확률의 곱으로 상기 저수지의 수위를 예측하도록 구현되며,
상기 침수되는 저수지 주변의 위치를 디스플레이에 표시하는 명령들은,
상기 이미지들 중 어느 하나에 높이 정보를 추가하며,
상기 이미지들 중 어느 하나를 복수의 그리드들로 나누며,
복수의 그리드들 중 상기 저수지와 인접한 그리드들 중 가장 낮은 높이 값을 갖는 그리드를 선택하며,
상기 복수의 그리드들 사이의 높이 차이를 계산하며,
상기 가장 낮은 높이 값을 갖는 그리드에서 상기 높이 차이가 가장 큰 그리드를 선택하며,
상기 높이 차이에 따라 상기 복수의 그리드들을 서로 다른 픽셀들로 디스플레이에 표시하도록 구현되는 3차원 모델링을 이용한 침수 표시 시스템. - 제3항에 있어서, 상기 명령들은,
상기 침수로 표시되는 그리드들과 자산 사이의 거리를 계산하며,
상기 거리가 임의의 거리 이하일 때, 상기 디스플레이에 경고 메시지를 표시하도록 더 구현되는 3차원 모델링을 이용한 침수 표시 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220051934A KR102492866B1 (ko) | 2022-04-27 | 2022-04-27 | 3차원 모델링을 이용한 침수 표시 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220051934A KR102492866B1 (ko) | 2022-04-27 | 2022-04-27 | 3차원 모델링을 이용한 침수 표시 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102492866B1 true KR102492866B1 (ko) | 2023-01-30 |
Family
ID=85106037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220051934A KR102492866B1 (ko) | 2022-04-27 | 2022-04-27 | 3차원 모델링을 이용한 침수 표시 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102492866B1 (ko) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150040505A (ko) * | 2013-10-07 | 2015-04-15 | 에스케이플래닛 주식회사 | 위치 기반의 침수 지역 예보 서비스를 위한 방법, 이를 위한 장치 및 시스템 |
KR102259801B1 (ko) | 2021-01-13 | 2021-06-02 | (주)우리기술 | 3차원 모델링을 이용한 수위측정위치의 구조물을 파악할 수 있는 초음파 수위측정장치 |
KR102261870B1 (ko) * | 2018-07-27 | 2021-06-07 | 진선영 | 영상 처리에 기초한 수위 산출 장치 및 방법 |
KR102278683B1 (ko) * | 2020-11-26 | 2021-07-16 | (주)헤르메시스 | 홍수피해 위험지수 산출 장치 및 그 방법 |
JP2021531450A (ja) * | 2018-11-13 | 2021-11-18 | ハイドロセム | オプティカルフロー映像処理を利用する河川流速測定装置および方法 |
KR102365591B1 (ko) * | 2020-04-03 | 2022-02-22 | 한국과학기술정보연구원(Kisti) | 침수 예측 장치 및 그 방법 |
JP2022041049A (ja) * | 2020-08-31 | 2022-03-11 | 株式会社日立製作所 | 浸水深推定装置及び方法 |
-
2022
- 2022-04-27 KR KR1020220051934A patent/KR102492866B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150040505A (ko) * | 2013-10-07 | 2015-04-15 | 에스케이플래닛 주식회사 | 위치 기반의 침수 지역 예보 서비스를 위한 방법, 이를 위한 장치 및 시스템 |
KR102261870B1 (ko) * | 2018-07-27 | 2021-06-07 | 진선영 | 영상 처리에 기초한 수위 산출 장치 및 방법 |
JP2021531450A (ja) * | 2018-11-13 | 2021-11-18 | ハイドロセム | オプティカルフロー映像処理を利用する河川流速測定装置および方法 |
KR102365591B1 (ko) * | 2020-04-03 | 2022-02-22 | 한국과학기술정보연구원(Kisti) | 침수 예측 장치 및 그 방법 |
JP2022041049A (ja) * | 2020-08-31 | 2022-03-11 | 株式会社日立製作所 | 浸水深推定装置及び方法 |
KR102278683B1 (ko) * | 2020-11-26 | 2021-07-16 | (주)헤르메시스 | 홍수피해 위험지수 산출 장치 및 그 방법 |
KR102259801B1 (ko) | 2021-01-13 | 2021-06-02 | (주)우리기술 | 3차원 모델링을 이용한 수위측정위치의 구조물을 파악할 수 있는 초음파 수위측정장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321853B (zh) | 基于视频智能检测的分布式电缆防外破系统 | |
KR102159620B1 (ko) | Ai 및 딥러닝 기반의 스마트 홍수관리 수문제어 자동화 시스템 | |
KR102518554B1 (ko) | 신경망을 이용한 수위 예측 방법 및 시스템 | |
US20160148382A1 (en) | Estimating rainfall precipitation amounts by applying computer vision in cameras | |
CN117011772B (zh) | 一种输电线路的风险提示方法、装置和存储介质 | |
KR102492866B1 (ko) | 3차원 모델링을 이용한 침수 표시 방법 및 시스템 | |
CN113361447A (zh) | 一种基于滑动窗口自注意力机制的车道线检测方法及系统 | |
KR102547768B1 (ko) | 영상 감시 시스템에서의 실시간 이상 상황 탐지 방법 및 장치 | |
WO2020188692A1 (ja) | 水位計測装置、水位計測方法および水位計測プログラム | |
CN114022681A (zh) | 一种红外图像弱小目标检测方法及系统 | |
US11148284B2 (en) | Controlling moveable robot blocks to dynamically form a barrier | |
US20230334774A1 (en) | Site model updating method and system | |
JP2005149035A (ja) | 浸水監視装置 | |
CN115240394B (zh) | 一种变电站事故油池水位监测预警方法及系统 | |
KR102247113B1 (ko) | 스마트 물 관리 시스템 | |
US11185988B2 (en) | Moveable robot block deployed to form a barrier and sense environmental conditions | |
CN113485438A (zh) | 一种无人机空间监测路径智能规划方法及系统 | |
US20230061238A1 (en) | A camera system and a method for determining a weather situation | |
CN117689501B (zh) | 一种水库防汛动态预报预警方法及系统平台 | |
Rio et al. | The Innovation Development of Early Flash Flood Warning System Based on Digital Image Processing Through Android Smartphone. | |
CN118331809B (zh) | 一种基于图像处理的服务器液冷系统故障检测方法和系统 | |
KR20240040179A (ko) | cctv 기반의 인공지능을 적용한 수위계측 장치 | |
JP2013519172A (ja) | 測光モデルを更新するための装置 | |
CN116993743B (zh) | 输电线路舞动幅度检测方法、装置、设备和存储介质 | |
CN118485951B (zh) | 一种原位波浪要素提取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |