KR102457470B1 - Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis - Google Patents

Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis Download PDF

Info

Publication number
KR102457470B1
KR102457470B1 KR1020210152063A KR20210152063A KR102457470B1 KR 102457470 B1 KR102457470 B1 KR 102457470B1 KR 1020210152063 A KR1020210152063 A KR 1020210152063A KR 20210152063 A KR20210152063 A KR 20210152063A KR 102457470 B1 KR102457470 B1 KR 102457470B1
Authority
KR
South Korea
Prior art keywords
precipitation
image
weather
cctv
learning model
Prior art date
Application number
KR1020210152063A
Other languages
Korean (ko)
Inventor
임재철
Original Assignee
주식회사 윈드위시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윈드위시 filed Critical 주식회사 윈드위시
Priority to KR1020210152063A priority Critical patent/KR102457470B1/en
Application granted granted Critical
Publication of KR102457470B1 publication Critical patent/KR102457470B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/14Rainfall or precipitation gauges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2203/00Real-time site-specific personalized weather information, e.g. nowcasting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

Disclosed are a device and a method for determining artificial intelligence-based precipitation using image analysis. According to one aspect of an embodiment of the present invention, provided are the device and the method for determining precipitation, which determine and guide whether there is the precipitation in a specific (local) region checked by a user by using image analysis based on artificial intelligence.

Description

영상 분석을 이용한 인공지능 기반 강수 판단장치 및 방법{Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis}Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

본 발명은 인공지능 기반의 영상분석을 이용하여 특정 (국소) 지역의 강수 여부를 판단하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining whether precipitation is present in a specific (local) area using artificial intelligence-based image analysis.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

종래에는 날씨의 감지를 주로 기상청에 의한 일기예보에 의존하였다. 일기예보는 기상요소인 바람, 온도, 기압 등의 관측, 관측자료의 분석 그리고 날씨 추정이라는 과정을 거친다. 이러한 관측은 육지에만 존재하는 관측소의 관측, 해양의 자료를 보완하는 기상 부이(buoy)나 선박에 의한 관측 그리고 인공 위성에 의한 관측 등이 있다. 주로 종래에는 날씨의 추정을 위해 레이더를 사용해왔다. Conventionally, the detection of the weather has mainly depended on the weather forecast by the Korea Meteorological Administration. Weather forecasting involves observation of weather elements such as wind, temperature, and atmospheric pressure, analysis of observation data, and weather estimation. These observations include observations from observatories that exist only on land, observations by meteorological buoys or ships that supplement ocean data, and observations by artificial satellites. In the past, radar has been mainly used for estimating the weather.

레이더는 마이크로파 신호를 구름에 쏘아서 빗방울에 반사되어 돌아오는 신호를 이용하여 강수량을 추정하는 장비로써, 강수에 직접 반응하여 정확한 강수량과 강수 지점을 알 수 있어서, 전 세계 기상청뿐만 아니라, 국토와 농산림, 재해 관련 기관들에서 현업적으로 사용하는 매우 중요한 강수 관측 시스템이다. Radar is a device that estimates the amount of precipitation by sending microwave signals to the clouds and using the signals that are reflected back by raindrops. As such, it is a very important precipitation monitoring system used by disaster-related organizations.

이러한 종래의 일기예보는 광범위한 지역을 그 대상으로 하는 것이어서, 사용자가 보고자 하는 국소 지역의 실제 날씨를 예상하는 데에는 한계가 있어, 국지성 호우 내지 폭설 등에 효과적으로 대비할 수 없는 문제가 있다.Since the conventional weather forecast is for a wide area, there is a limit in predicting the actual weather in a local area that the user wants to see, and there is a problem in that it is not possible to effectively prepare for localized heavy rain or heavy snow.

또한, 날씨의 개략적인 추정만이 가능할 뿐, 사용자가 원하는 시간 대의 실시간성 날씨 정보를 획득할 수 없어 사용자에게 불편을 야기해 왔다.In addition, only a rough estimation of the weather is possible, and it is impossible to obtain real-time weather information in a time zone desired by the user, thereby causing inconvenience to the user.

본 발명의 일 실시예는, 인공지능 기반의 영상분석을 이용하여 사용자가 확인하고자 하는 특정 (국소) 지역의 강수 여부를 판단하여 안내하는 강수 판단장치 및 방법을 제공하는 데 일 목적이 있다.An embodiment of the present invention has an object to provide a precipitation determination apparatus and method for guiding by determining whether precipitation is in a specific (local) area that a user wants to check using artificial intelligence-based image analysis.

본 발명의 일 측면에 의하면, 사용자가 확인하고자 하는 확인지역의 날씨 및 강수여부를 판단하는 강수 판단장치에 있어서, 상기 확인지역의 정보를 사용자 단말로부터, 상기 확인지역의 CCTV 영상 또는 이미지를 CCTV로부터 각각 수신하며, 날씨 및 강수여부 판단결과를 상기 사용자 단말로 전송하는 통신부와 CCTV 영상 또는 이미지로부터 날씨를 분류하는 제1 학습모델 및 CCTV 영상 또는 이미지 내에서 강수 성분을 검출하는 제2 학습모델을 저장하는 메모리부와 상기 제1 학습모델을 이용하여 CCTV 영상 또는 이미지로부터 상기 확인지역의 날씨를 분류하고, 상기 제2 학습모델을 이용하여 CCTV 영상 또는 이미지 내 강수 성분이 얼마만큼 포착되는지를 판단하는 판단부 및 상기 통신부, 상기 메모리부 및 상기 판단부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 강수 판단장치를 제공한다.According to one aspect of the present invention, in the precipitation determination device for determining the weather and precipitation in the confirmed area that the user wants to check, the information on the confirmed area from the user terminal and the CCTV image or image of the confirmed area from the CCTV A communication unit that receives each and transmits the weather and precipitation determination results to the user terminal, a first learning model for classifying weather from CCTV images or images, and a second learning model for detecting precipitation components in CCTV images or images Classifying the weather of the confirmed area from the CCTV image or image using the memory unit and the first learning model, and determining how much precipitation component in the CCTV image or image is captured using the second learning model It provides a precipitation determination device comprising a control unit and a control unit for controlling the operation of the communication unit, the memory unit and the determination unit.

본 발명의 일 측면에 의하면, 상기 제1 학습모델은 CCTV 영상 또는 이미지로부터 눈이나 비가 내리고 있는 날씨인지 또는 그렇지 않은 날씨인지를 분류하는 것을 특징으로 한다.According to one aspect of the present invention, the first learning model is characterized in that it classifies whether it is snowing or raining weather or not, from CCTV images or images.

본 발명의 일 측면에 의하면, 상기 판단부는 상기 확인지역에 비가 내이고 있는 날씨일 경우, 상기 제2 학습모델을 이용하여 CCTV 영상 또는 이미지 내 강수 성분을 포착하는 것을 특징으로 한다.According to an aspect of the present invention, the determination unit is characterized in that when the weather is raining in the confirmed area, the CCTV image or precipitation component in the image is captured by using the second learning model.

본 발명의 일 측면에 의하면, 상기 강수 판단장치는 외부로부터 상기 제1 학습모델과 상기 제2 학습모델 각각의 학습을 위한 입력 데이터 및 각 입력 데이터에 대한 출력 데이터를 수신하여, 상기 제1 학습모델 및 상기 제2 학습모델을 학습하는 학습부를 더 포함하는 것을 특징으로 한다.According to one aspect of the present invention, the precipitation determining device receives input data for learning each of the first learning model and the second learning model and output data for each input data from the outside, and the first learning model and a learning unit for learning the second learning model.

본 발명의 일 측면에 의하면, 상기 학습부는 컨볼루션 신경망(Convolutional Neural Networks)을 이용하여 상기 제1 학습모델과 상기 제2 학습모델 각각의 학습을 위한 입력 데이터 및 각 입력 데이터에 대한 출력 데이터로부터 상기 제1 학습모델 및 상기 제2 학습모델을 학습하는 것을 특징으로 한다.According to one aspect of the present invention, the learning unit uses convolutional neural networks to learn from input data for each of the first learning model and the second learning model and from output data for each input data. Characterized in learning the first learning model and the second learning model.

본 발명의 일 측면에 의하면, 사용자로부터 사용자가 날씨 및 강수여부를 확인하고자 하는 확인지역의 정보를 입력받아 외부로 전달하는 사용자 단말과 기 설정된 장소에 배치되어, 장소 주변의 영상을 촬영하는 CCTV 및 상기 사용자 단말로부터 요청받은 확인 지역의 CCTV 영상을 분석하여, 상기 확인지역의 날씨 및 강수 여부를 판단하고, 판단 결과를 상기 사용자 단말로 전송하는 강수 판단장치를 포함하는 것을 특징으로 하는 강수 판단 시스템을 제공한다.According to one aspect of the present invention, a user terminal that receives information of a confirmation area in which the user wants to check the weather and precipitation from the user and delivers it to the outside, and a CCTV which is disposed in a preset place and shoots an image around the place Precipitation determination system comprising a precipitation determination device that analyzes the CCTV image of the confirmed area requested from the user terminal, determines the weather and precipitation in the confirmed area, and transmits the determination result to the user terminal to provide.

본 발명의 일 측면에 의하면, 상기 강수 판단장치는 상기 확인지역의 정보를 사용자 단말로부터, 상기 확인지역의 CCTV 영상 또는 이미지를 CCTV로부터 각각 수신하며, 날씨 및 강수여부 판단결과를 상기 사용자 단말로 전송하는 통신부와 CCTV 영상 또는 이미지로부터 날씨를 분류하는 제1 학습모델 및 CCTV 영상 또는 이미지 내에서 강수 성분을 검출하는 제2 학습모델을 저장하는 메모리부와 상기 제1 학습모델을 이용하여 CCTV 영상 또는 이미지로부터 상기 확인지역의 날씨를 분류하고, 상기 제2 학습모델을 이용하여 CCTV 영상 또는 이미지 내 강수 성분이 얼마만큼 포착되는지를 판단하는 판단부 및 상기 통신부, 상기 메모리부 및 상기 판단부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, the precipitation determination device receives the information of the confirmed area from the user terminal, and receives the CCTV image or image of the confirmed area from the CCTV, respectively, and transmits the weather and precipitation determination results to the user terminal. A CCTV image or image using the first learning model and a memory unit that stores a first learning model for classifying weather from a communication unit and a CCTV image or image and a second learning model for detecting a precipitation component in the CCTV image or image Classifying the weather of the confirmed area from the judging unit and the communication unit, the memory unit and the determination unit that determine how much precipitation component is captured in the CCTV image or image using the second learning model. It is characterized in that it includes a control unit.

본 발명의 일 측면에 의하면, 상기 제1 학습모델은 각 상황의 날씨를 갖는 복수의 이미지를 입력 데이터로, 각 이미지들에 나타난 날시 정보를 출력 데이터로 하여 컨볼루션 신경망으로 학습된 것을 특징으로 한다.According to one aspect of the present invention, the first learning model is learned by a convolutional neural network using a plurality of images having weather of each situation as input data and date information displayed in each image as output data. .

본 발명의 일 측면에 의하면, 상기 제2 학습모델은 비가 내리는 상황의 이미지를 입력 데이터로, 상기 입력 데이터 내에서 강수 성분을 출력 데이터로 하여 컨볼루션 신경망으로 학습된 것을 특징으로 한다.According to one aspect of the present invention, the second learning model is characterized in that it is learned by a convolutional neural network using an image of a raining situation as input data and a precipitation component in the input data as output data.

본 발명의 일 측면에 의하면, 상기 제2 학습모델은 이미지 내 왜곡이 발생하였는지 여부를 토대로 강수 성분을 검출하는 것을 특징으로 한다.According to an aspect of the present invention, the second learning model is characterized in that the precipitation component is detected based on whether or not distortion in the image has occurred.

본 발명의 일 측면에 의하면, 강수 판단장치가 사용자가 확인하고자 하는 확인지역의 날씨 및 강수여부를 판단하는 방법에 있어서, 사용자 단말로부터 상기 확인지역의 정보를 수신하는 제1 수신과정과 상기 확인지역에 존재하는 CCTV로부터 CCTV 영상 또는 이미지를 수신하는 제2 수신과정과 CCTV 영상 또는 이미지로부터 날씨를 분류하는 제1 학습모델을 이용해, 상기 제2 수신과정에서 수신한 CCTV 영상 또는 이미지로부터 상기 확인지역의 날씨를 분류하는 분류과정과 CCTV 영상 또는 이미지 내에서 강수 성분을 검출하는 제2 학습모델을 이용해, 상기 제2 수신과정에서 수신한 CCTV 영상 또는 이미지 내 강수 성분이 얼마만큼 포착되는지를 판단하는 판단과정 및 상기 분류과정에서 분류된 상기 확인지역의 날씨 및 상기 판단과정에서 판단된 강수 여부 판단 결과를 상기 사용자 단말로 전송하는 전송과정을 포함하는 것을 특징으로 하는 강수 판단 판단방법을 제공한다.According to an aspect of the present invention, in a method for a precipitation determining apparatus to determine the weather and precipitation of a confirmed area that a user wants to check, a first reception process of receiving information on the confirmed area from a user terminal and the confirmed area Using a second receiving process of receiving a CCTV image or image from a CCTV existing in and a first learning model of classifying the weather from the CCTV image or image, Using a classification process for classifying the weather and a second learning model for detecting a precipitation component in a CCTV image or image, a judgment process to determine how much precipitation component is captured in the CCTV image or image received in the second reception process and transmitting the weather of the confirmed area classified in the classification process and a result of the determination of whether precipitation is determined in the determination process to the user terminal.

이상에서 설명한 바와 같이, 본 발명의 일 측면에 따르면, 인공지능 기반의 영상분석을 이용하여 사용자가 확인하고자 하는 특정 (국소) 지역의 강수 여부를 실시간으로 판단하여 사용자에게 제공하기 때문에, 사용자가 자신이 확인하고자 하는 지역의 실시간 날씨를 정확히 확인할 수 있는 장점이 있다.As described above, according to one aspect of the present invention, since precipitation in a specific (local) area that the user wants to check is determined in real time and provided to the user using artificial intelligence-based image analysis, the user This has the advantage of being able to accurately check the real-time weather in the area you want to check.

도 1은 본 발명의 일 실시예에 따른 강수 판단 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 강수 판단장치의 구성을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 강수 판단장치가 날씨 분류를 위해 학습하는 데이터를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 강수 판단장치가 강수 성분 검출을 위해 학습하는 데이터를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 강수 판단장치가 영상 내에서 강수 여부를 판단하는 방법을 도시한 순서도이다.
1 is a diagram illustrating a precipitation determination system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of an apparatus for determining precipitation according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating data that the precipitation determination apparatus learns for weather classification according to an embodiment of the present invention.
4 is a diagram illustrating data that the precipitation determination apparatus learns to detect a precipitation component according to an embodiment of the present invention.
5 is a flowchart illustrating a method of determining whether precipitation is present in an image by the apparatus for determining precipitation according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에서, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

도 1은 본 발명의 일 실시예에 따른 강수 판단 시스템을 도시한 도면이다.1 is a diagram illustrating a precipitation determination system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 강수 판단 시스템(100)은 CCTV(110), 강수 판단장치(120) 및 사용자 단말(130)을 포함한다.Referring to FIG. 1 , a precipitation determination system 100 according to an embodiment of the present invention includes a CCTV 110 , a precipitation determination device 120 , and a user terminal 130 .

CCTV(110)는 특정 장소에 배치되어, 장소 주변의 영상을 촬영한다. CCTV(110)는 단독으로 설치되거나, 특정 구조물에 부착되어 설치되어, 기 설정된 각도 범위 내에서 회전하며 지속적으로 주변의 영상을 촬영한다. CCTV(110)는 촬영한 영상을 기 설정된 기간 저장해 두며, 기 설정된 기간 이후 파기한다. CCTV(110)는 강수 판단장치(120)의 요청에 따라 촬영한 영상 또는 기 촬영하여 저장하고 있는 영상을 강수 판단장치(120)로 전달한다. 도 1에는 CCTV가 골프장에 배치되어 있는 것으로 도시되어 있으나, 반드시 이에 한정되는 것은 아니고 CCTV가 존재할 수 있는 지역이면 어떠한 지역이어도 무방하다.The CCTV 110 is arranged in a specific place, and shoots an image around the place. The CCTV 110 is installed alone or attached to a specific structure, rotates within a preset angle range, and continuously takes images of the surroundings. The CCTV 110 stores the captured image for a preset period, and destroys it after the preset period. The CCTV 110 transmits an image captured in response to the request of the precipitation determination device 120 or an image previously recorded and stored to the precipitation determination device 120 . Although it is shown in FIG. 1 that the CCTV is disposed on the golf course, it is not necessarily limited thereto, and any area may be used as long as the CCTV can exist.

강수 판단장치(120)는 사용자 단말(130)로부터 판단 요청온 지역의 CCTV 영상을 분석하여, 해당 지역의 날씨 및 강수여부를 판단한다. 강수 판단장치(120)는 다양한 지역의 CCTV(110)와 통신하며, 해당 CCTV(110)가 촬영하거나 기 촬영하여 저장하고 있는 영상을 수신할 수 있다. 이에, 강수 판단장치(120)는 사용자 단말(130)로부터 강수 여부 판단 요청을 받은 지역의 CCTV로부터 영상을 수신한다. 강수 판단장치(120)는 실시간성을 갖는 특정 국소지역의 영상으로부터 강수 여부를 판단하기 때문에, 사용자에게 시간적으로나 장소적으로 정확한 정보를 전달할 수 있다.The precipitation determination device 120 analyzes the CCTV image of the area requested for determination from the user terminal 130 to determine the weather and precipitation in the area. The precipitation determination device 120 communicates with the CCTV 110 in various regions, and may receive an image captured by the CCTV 110 or previously recorded and stored. Accordingly, the precipitation determination device 120 receives an image from the CCTV of the area in which the precipitation determination request is received from the user terminal 130 . Since the precipitation determination device 120 determines whether precipitation is present from an image of a specific local area having real-time characteristics, accurate information in time or location can be delivered to the user.

강수 판단장치(120)는 CCTV(110)의 영상을 입력받아 날씨를 분류하는 제1 학습모델 및 영상 내에서 강수 성분을 검출하는 제2 학습모델을 저장한다. 강수 판단장치(120)는 각 학습모델을 이용하여 해당 지역의 강수여부 및 강수정도를 분석한다. 강수 판단장치(120)는 분석한 정보를 사용자 단말(130)로 전달하여, 사용자가 해당 지역의 날씨, 강수 여부 및 강수 정도를 파악할 수 있도록 한다. 이때, 강수 판단장치(120)는 해당 정보와 함께 CCTV(110)로부터 수신한 CCTV 영상도 전송함으로서, 사용자가 해당 지역의 CCTV 영상도 확인하도록 할 수 있다. 강수 판단장치(120)에 대한 구체적인 내용은 도 2 내지 4를 참조하여 후술한다.The precipitation determination device 120 stores a first learning model for classifying weather by receiving an image of the CCTV 110 and a second learning model for detecting a precipitation component in the image. The precipitation determination device 120 analyzes the presence of precipitation and the degree of precipitation in the corresponding area using each learning model. The precipitation determination device 120 transmits the analyzed information to the user terminal 130 so that the user can grasp the weather, precipitation presence, and precipitation degree in the corresponding area. At this time, the precipitation determination device 120 also transmits the CCTV image received from the CCTV 110 together with the corresponding information, so that the user can also check the CCTV image of the corresponding area. Specific details of the precipitation determination device 120 will be described later with reference to FIGS. 2 to 4 .

사용자 단말(130)은 사용자가 강수 여부를 확인하고자 하는 지역(이하에서, '확인 지역'이라 약칭함)을 사용자로부터 입력받아 강수 판단장치(120)로 전달하며, 강수 여부를 강수 판단장치(120)로부터 수신하여 사용자에게 출력한다. 사용자는 비 또는 눈 등이 오는지 여부를 확인하고자 하는 지역을 사용자 단말(130)로 입력하며, 사용자 단말(130)은 입력받은 지역정보를 강수 판단장치(120)로 전달한다. 사용자 단말(130)은 사용자가 입력한 지역의 강수 여부를 강수 판단장치(120)로부터 수신하며, 이를 출력함으로서 사용자가 해당 지역의 강수 여부를 실시간으로 확인할 수 있도록 한다. 사용자 단말(130)은 외부 기기와 통신이 가능하고 특정한 정보를 출력할 수 있는 기기면 어떠한 것으로 구현되어도 무방하며, 대표적인 예로서 스마트폰으로 구현될 수 있다.The user terminal 130 receives an input from the user for an area (hereinafter, abbreviated as 'confirmation area') in which the user wants to check whether precipitation is present, and transmits it to the precipitation determination device 120, and determines whether precipitation is precipitation in the precipitation determination device 120 ) and output to the user. The user inputs an area to check whether rain or snow is coming to the user terminal 130 , and the user terminal 130 transmits the received area information to the precipitation determination device 120 . The user terminal 130 receives, from the precipitation determining device 120, whether precipitation is in the area input by the user, and outputs it so that the user can check whether precipitation is in the area in real time. The user terminal 130 may be implemented as any device capable of communicating with an external device and outputting specific information, and may be implemented as a smart phone as a representative example.

도 2는 본 발명의 일 실시예에 따른 강수 판단장치의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of an apparatus for determining precipitation according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 강수 판단장치(120)는 통신부(210), 메모리부(220), 판단부(230) 및 제어부(240)를 포함한다. 나아가, 강수 판단장치(120)는 학습부(250)를 더 포함할 수 있다.Referring to FIG. 2 , the precipitation determination apparatus 120 according to an embodiment of the present invention includes a communication unit 210 , a memory unit 220 , a determination unit 230 , and a control unit 240 . Furthermore, the precipitation determination device 120 may further include a learning unit 250 .

통신부(210)는 CCTV(110)와 무선통신하며, CCTV(110)로부터 촬영하거나 기 촬영하여 저장하고 있는 영상을 수신한다. CCTV가 촬영하는 영상은 해당 CCTV와 전기적으로 연결되거나 무선으로 연결되는 서버 또는 데이터베이스 내 저장된다. 통신부(210)는 각 지역 내 해당 서버 또는 데이터베이스와 통신하며, CCTV(110)로부터 촬영하거나 기 촬영하여 저장하고 있는 영상을 수신할 수 있다. 통신부(210)는 제어부(240)의 제어에 따라 특정 지역, 보다 구체적으로 확인 지역(지점)에서 가장 근접해 있는 CCTV(110)와 통신하며 영상을 수신한다.The communication unit 210 wirelessly communicates with the CCTV 110 , and receives an image photographed or previously recorded and stored from the CCTV 110 . The video captured by the CCTV is stored in a server or database that is electrically connected to the CCTV or connected wirelessly. The communication unit 210 communicates with a corresponding server or database in each region, and may receive an image photographed or previously photographed and stored from the CCTV 110 . The communication unit 210 receives an image while communicating with the CCTV 110 closest to a specific area, more specifically, a confirmation area (point) under the control of the control unit 240 .

통신부(210)는 사용자 단말(130)과 무선통신하며, 확인 지역에 관한 정보를 사용자 단말(130)로부터 수신하며, 확인 지역의 날씨 및 확인 지역에서의 강수 여부를 사용자 단말(130)로 전송한다. 통신부(210)는 확인 지역에 관한 정보를 사용자 단말(130)로부터 수신한다. 확인 지역에 관한 정보는 해당 지역의 지명, 주소 또는 좌표 등 상호(120, 130) 간에 동일한 지점을 동일하게 인식할 수 있는 수단이면 어떠한 것으로 구현되어도 무방하다. 통신부(210)는 수신한 정보를 판단부(230)로 전달한다. 또한, 통신부(210)는 확인 지역의 날씨 및 확인 지역에서의 강수 여부와 함께, CCTV(110)로부터 수신한 확인지역의 CCTV 영상을 함께 전송할 수 있다. CCTV 영상을 함께 전송함에 따라, 사용자는 사용자 단말(130)을 이용해, 해당 지역의 CCTV 영상과 함께 날씨와 강수 여부에 관한 정보를 모두 확인할 수 있다.The communication unit 210 wirelessly communicates with the user terminal 130 , receives information about the confirmed area from the user terminal 130 , and transmits the weather of the confirmed area and whether precipitation in the confirmed area to the user terminal 130 . . The communication unit 210 receives information about the confirmation area from the user terminal 130 . The information on the confirmed area may be implemented as any means for recognizing the same point between the names 120 and 130, such as a place name, address, or coordinates of the corresponding area. The communication unit 210 transmits the received information to the determination unit 230 . In addition, the communication unit 210 may transmit the CCTV image of the confirmed area received from the CCTV 110 together with the weather of the confirmed area and the presence of precipitation in the confirmed area. As the CCTV images are transmitted together, the user can use the user terminal 130 to check all information about the weather and precipitation together with the CCTV images of the area.

메모리부(220)는 통신부(210)가 수신한 CCTV 영상으로부터 날씨를 분류하는 제1 학습모델 및 영상 내에서 강수 성분을 검출하는 제2 학습모델을 저장한다. The memory unit 220 stores a first learning model for classifying weather from the CCTV image received by the communication unit 210 and a second learning model for detecting a precipitation component in the image.

제1 학습모델은 컨볼루션 신경망(CNN: Convolutional Neural Networks)을 이용하여 이미지를 입력받아 이미지 내 날씨를 분류하는 모델이다. 제1 학습모델은 도 3에 도시된 바와 같은 각 날씨 상황의 이미지를 입력데이터로 입력받는다.The first learning model is a model for classifying weather in an image by receiving an image using a convolutional neural network (CNN). The first learning model receives as input data an image of each weather situation as shown in FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 강수 판단장치가 날씨 분류를 위해 학습하는 데이터를 도시한 도면이다.FIG. 3 is a diagram illustrating data that the precipitation determination apparatus learns for weather classification according to an embodiment of the present invention.

도 3(a)는 강수가 발생하지 않은 화창한 날씨를 갖는 이미지이며, 도 3(b)는 비가 내리고 있거나 내린 날씨를 갖는 이미지이며, 도 3(c)는 눈이 내리고 있거나 내린 날씨를 갖는 이미지이다. Fig. 3 (a) is an image with sunny weather without precipitation, Fig. 3 (b) is an image with raining or falling weather, and Fig. 3 (c) is an image with snowing or falling weather. .

제1 학습모델은 이처럼 각 상황의 날씨를 갖는 다양한 이미지들을 입력값으로, 해당 이미지들에 나타난 날씨 정보(맑음, 비 내림, 눈 내림 등)를 출력값으로 하여 컨볼루션 신경망으로 학습한다. 보다 구체적으로, 출력값인 날씨 정보는 이미지의 밝기, 색도 또는 채도의 차이로 구분될 수 있다. 맑은 날에 대한 이미지는 상대적으로 높은 밝기, 색도 또는 채도를 갖는 반면, 비 또는 눈이 내리는 날에 대한 이미지는 상대적으로 낮은 밝기, 색도 또는 채도를 갖는다. 또한, 비가 오는 날과 눈이 오는 날에 대한 이미지 역시, 각 날씨적 특징에 따라 서로 다른 밝기, 색도 또는 채도를 갖는다. 이를 이용해, 제1 학습모델은 이미지를 입력값으로 입력받으면, 이미지 내 밝기, 색도 또는 채도 등을 분석하여 해당 이미지 내 날씨가 어떠한지 분류할 수 있다. 예를 들어, 제1 학습모델은 도 3(a)의 이미지를 입력받으면, 해당 지역의 날씨는 맑다는 것을 출력할 수 있다. The first learning model learns with a convolutional neural network by using various images having the weather of each situation as input values and weather information (sunny, raining, snowing, etc.) displayed in the images as output values. More specifically, the weather information, which is an output value, may be classified by a difference in brightness, chromaticity, or chroma of an image. An image for a sunny day has a relatively high brightness, chromaticity or saturation, whereas an image for a rain or snowy day has a relatively low brightness, chromaticity or saturation. In addition, images of rainy days and snowy days also have different brightness, chromaticity, or saturation according to each weather feature. Using this, when the first learning model receives an image as an input value, it can classify the weather in the image by analyzing the brightness, chromaticity, or saturation in the image. For example, when the first learning model receives the image of FIG. 3A , it may output that the weather in the corresponding area is clear.

이때, 제1 학습모델은 분류의 정확도를 높이기 위해, 입력 데이터로서 이미지를 시계열적으로 연속적인 이미지를 학습할 수 있다. 시계열적으로 연속적인 이미지를 학습함에 따라, 흐린 날씨와 CCTV 영상 자체로 흐릿한 것을 구분할 수 있다. 날씨 자체는 흐리지 않으나, CCTV의 화질 자체가 낮아 흐릿하게 나오는 경우나 CCTV의 촬영부에 이물질 등이 부착되어 있어 영상이 흐릿하게 나오는 경우 등이 존재할 수 있다. 이러한 영상이 필터링되지 않을 경우, 사용자에게 부정확한 판단결과를 제공할 수 있다. 이를 위해, 제1 학습모델은 시계열적으로 연속적인 이미지를 입력데이터로서 이용한다. 날씨 자체가 흐린 상황이라면, 시계열적으로 연속적인 이미지 내에서는 이미지 내 사물 또는 사람 등의 움직임으로 인해 변화가 발생할 가능성이 높다. 반면, CCTV의 물리적인 이유로 영상 자체가 흐릿하게 나온 경우라면, 장소 내에서 실체적으로 변화가 발생하든 흐릿한 부분이나 전 부분에서의 변화가 발생하지 않게 된다. 이러한 점을 이용하여 제1 학습모델은 연속적인 이미지를 학습하여, 결과값으로 날씨를 분류함과 동시에 CCTV의 외부요인에 의해 영상 파악이 곤란한 상황을 구별할 수 있다.In this case, in order to increase the accuracy of classification, the first learning model may learn images that are successive images in time series as input data. By learning continuous images in time-series, it is possible to distinguish between cloudy weather and blurriness with the CCTV image itself. Although the weather itself is not cloudy, there may be cases where the image quality of the CCTV itself is low and the image is blurred, or the image is blurred because foreign substances are attached to the recording part of the CCTV. If such an image is not filtered, an inaccurate judgment result may be provided to the user. To this end, the first learning model uses time-series continuous images as input data. If the weather itself is cloudy, changes are highly likely to occur due to movement of objects or people in the images in time-series continuous images. On the other hand, if the video itself is blurry due to the physical reasons of the CCTV, there is no change in the blurry part or the whole part regardless of whether there is a substantial change in the place. Using this point, the first learning model learns continuous images, classifies the weather as a result, and at the same time can distinguish situations in which it is difficult to grasp images due to external factors of CCTV.

또한, 제1 학습모델은 각 계절이나 기온에 따른 서로 이미지, 하루 중 시간 대에 따른 서로 이미지들을 모두 학습할 수 있다. 일률적으로 동일한 계절이나 시간 대(동틀녘, 오전, 오후, 해질녘, 저녁 등)의 이미지들만을 이용하여 학습이 진행될 경우, 제1 학습모델은 계절의 변화나 시간 대의 변화에 정확한 결과값을 분류하지 못할 가능성이 존재한다. 이러한 문제를 방지하고자, 제1 학습모델은 입력 데이터로서 각 날씨에 관한 이미지를 입력받음에 있어, 연속적인 이미지, 상이한 계절(기온)에서의 이미지 또는 상이한 시간에서의 이미지를 입력받아 분류의 정확도를 향상시킨다.In addition, the first learning model may learn both images of each other according to seasons or temperatures, and images of each other according to time of day. When learning is conducted using only images of the same season or time zone (dawn, morning, afternoon, sunset, evening, etc.) uniformly, the first learning model does not classify the correct result value according to the change of season or time zone. There is a possibility that it cannot. In order to prevent this problem, the first learning model receives continuous images, images in different seasons (temperatures), or images at different times when receiving images about each weather as input data to improve classification accuracy. improve

다시 도 2를 참조하면, 제2 학습모델은 마찬가지로 컨볼루선 신경망을 이용하여 이미지(영상)를 입력받아 이미지 내 강수 성분을 검출하는 모델이다. 제2 학습모델은 컨볼루션 신경망을 이용하여 강수, 특히, 비가 내리는 상황의 이미지를 입력 데이터로 하며, 입력 데이터 내에서 강수 성분을 출력 데이터로 하여 학습한다. 제2 학습모델이 학습하는 데이터는 도 4에 예시되어 있다.Referring back to FIG. 2 , the second learning model is a model that similarly receives an image (image) using a convolutional neural network and detects a precipitation component in the image. The second learning model uses a convolutional neural network to use an image of precipitation, particularly a raining situation, as input data, and learns by using a precipitation component in the input data as output data. The data learned by the second learning model is illustrated in FIG. 4 .

도 4는 본 발명의 일 실시예에 따른 강수 판단장치가 강수 성분 검출을 위해 학습하는 데이터를 도시한 도면이다.4 is a diagram illustrating data that the precipitation determination apparatus learns to detect a precipitation component according to an embodiment of the present invention.

도 4를 참조하면, 비가 내리는 상황의 이미지가 제2 학습모델의 입력 데이터로 학습된다. 비가 오는 상황이라면, CCTV의 외부에 빗방울이 지속적으로 맺히며, 빗방울이 어안렌즈와 같이 동작하며 빛을 굴절시켜 이미지 내에서 왜곡(420)을 발생시키킨다. 이 같은 왜곡(420)이 발생하는 정도는 강수량에 비례하는 것은 자명한 사항이다. 이러한 점을 이용하여, 제2 학습모델은 입력 데이터로서 이미지를 입력받으며, 이미지 내 발생한 왜곡(420)들을 출력데이터로 학습하여, 입력된 이미지 내 왜곡이 얼마나 존재하는지를 판단한다. 전술한 대로, 왜곡의 개수는 강수량과 비례하기 때문에, 제2 학습모델은 특히, 비가 오는 상황에서 강수 성분을 검출하여 강수 정도를 판단한다.Referring to FIG. 4 , an image of a raining situation is learned as input data of the second learning model. If it is raining, raindrops continuously form on the outside of the CCTV, and the raindrops operate like a fisheye lens and refract light to generate distortion 420 in the image. It is self-evident that the degree of occurrence of the distortion 420 is proportional to the amount of precipitation. Using this point, the second learning model receives an image as input data, learns distortions 420 generated in the image as output data, and determines how much distortion exists in the input image. As described above, since the number of distortions is proportional to the amount of precipitation, the second learning model determines the degree of precipitation by detecting a precipitation component, especially in a raining situation.

다시 도 2를 참조하면, 메모리부(220)는 각 학습모델을 저장하여, 통신부(210)가 수신한 이미지로부터 판단부(230)가 각 결과값들을 분석할 수 있도록 한다.Referring back to FIG. 2 , the memory unit 220 stores each learning model so that the determination unit 230 can analyze each result value from the image received by the communication unit 210 .

판단부(230)는 메모리부(220) 내 저장된 학습모델들을 이용하여, 통신부(210)가 수신한 이미지로부터 해당 지역의 강수 여부를 판단한다. The determination unit 230 uses the learning models stored in the memory unit 220 to determine whether precipitation occurs in the corresponding area from the image received by the communication unit 210 .

판단부(230)는 메모리부(220) 내 저장된 제1 학습모델을 이용하여, 해당 지역의 CCTV 이미지(영상)로부터 해당 지역의 날씨를 분류한다. 판단부(230)는 해당 지역의 CCTV 이미지를 제1 학습모델로 입력하여, 해당 지역의 날씨가 어떠한지를 분류한다. 특히, 판단부(230)는 제1 학습모델을 이용하여 해당 지역의 날씨 자체가 흐린 것인지, CCTV의 물리적인 이유로 인해 영상이 흐릿한 것인지까지 구분할 수 있어, 분류의 정확도를 높일 수 있다.The determination unit 230 classifies the weather of the corresponding area from the CCTV image (video) of the corresponding area using the first learning model stored in the memory unit 220 . The determination unit 230 inputs the CCTV image of the corresponding area as the first learning model, and classifies the weather of the corresponding area. In particular, the determination unit 230 can distinguish whether the weather in the corresponding area itself is cloudy or whether the image is blurred due to the physical reason of the CCTV using the first learning model, thereby increasing the accuracy of classification.

해당 지역에 비가 오고 있는 것으로 분류한 경우, 판단부(230)는 메모리부(220) 내 저장된 제2 학습모델을 이용하여 해당 지역의 강수 정도를 판단한다. 판단부(230)는 해당 지역의 CCTV 이미지를 제2 학습모델로 입력하여, 이미지 내에서 강수 성분이 얼마만큼 포착되는지를 판단한다. 판단부(230)는 포착되는 강수 성분의 정도에 따라 강수 정도를 판단한다. 판단부(230)는 포착되는 강수 성분의 정도에 따라 강수 정도를 등급으로 분류할 수도 있고, 개략적인 강수량을 계산할 수도 있다. When it is classified as raining in the corresponding area, the determination unit 230 determines the degree of precipitation in the corresponding area using the second learning model stored in the memory unit 220 . The determination unit 230 inputs the CCTV image of the corresponding area as the second learning model, and determines how many precipitation components are captured in the image. The determination unit 230 determines the degree of precipitation according to the degree of the captured precipitation component. The determination unit 230 may classify the degree of precipitation into grades according to the degree of the captured precipitation component, or may calculate a rough amount of precipitation.

제어부(240)는 강수 판단장치(120) 내 각 구성의 동작을 제어한다.The control unit 240 controls the operation of each component in the precipitation determination device 120 .

통신부(210)가 사용자 단말(130)로부터 확인지역 정보를 수신한 경우, 제어부(240)는 확인지역에 가장 근접한 CCTV를 파악하여, 해당 CCTV로부터 영상을 수신하도록 통신부(210)를 제어한다.When the communication unit 210 receives the confirmation area information from the user terminal 130, the control unit 240 determines the CCTV closest to the confirmation area, and controls the communication unit 210 to receive an image from the CCTV.

통신부(210)가 CCTV(130)로부터 이미지(영상)를 수신한 경우, 제어부(240)는 판단부(230)가 해당 이미지를 토대로 확인지역의 날씨, 강수여부 및 강수 정도를 분석하도록 제어한다. When the communication unit 210 receives an image (video) from the CCTV 130 , the control unit 240 controls the determination unit 230 to analyze the weather, precipitation, and degree of precipitation in the confirmed area based on the image.

판단부(230)가 확인지역의 날씨, 강수여부 및 강수 정도를 분석한 경우, 제어부(240)는 분석 결과를 사용자 단말(130)로 전달하도록 통신부(210)를 제어한다. 이때, 제어부(240)는 CCTV(130)로부터 수신한 이미지(영상)를 분석결과와 함께 전송하도록 통신부(210)를 제어할 수 있다.When the determination unit 230 analyzes the weather, precipitation, and degree of precipitation in the confirmed area, the control unit 240 controls the communication unit 210 to transmit the analysis result to the user terminal 130 . In this case, the controller 240 may control the communication unit 210 to transmit the image (video) received from the CCTV 130 together with the analysis result.

제어부(240)는 이와 같이 제어함에 따라, 강수 판단장치(120) 내 각 구성이 확인지역의 강수여부를 판단하여 사용자 단말(130)로 통지할 수 있도록 한다.According to the control in this way, the control unit 240 determines whether each component in the precipitation determining device 120 determines whether precipitation is in the confirmed area and notifies the user terminal 130 .

강수 판단장치(120)는 학습부(250)를 더 포함할 수 있다. The precipitation determination device 120 may further include a learning unit 250 .

학습부(250)는 메모리부(220) 내 저장된 제1 학습모델과 제2 학습모델을 학습한다. 학습부(250)는 외부로부터 제1 학습모델과 제2 학습모델 각각의 학습을 위한 입력 데이터 및 그것에 대한 출력 데이터를 수신한다. 학습부(250)는 각 수신한 입력 데이터와 출력 데이터를 토대로 컨볼루션 신경망을 이용해 제1 학습모델과 제2 학습모델을 학습한다. 강수 판단장치(120)는 학습부(250)를 포함함에 따라, 직접 필요한 학습모델들을 학습하여 판단할 수 있다.The learning unit 250 learns the first learning model and the second learning model stored in the memory unit 220 . The learning unit 250 receives input data and output data for each of the first learning model and the second learning model from the outside. The learning unit 250 learns the first learning model and the second learning model by using a convolutional neural network based on each received input data and output data. As the precipitation determination device 120 includes the learning unit 250 , it can directly learn and determine necessary learning models.

이에 따라, 강수 판단장치(120)는 전술한 각 구성들을 포함함에 따라, 특정 지역의 실시간 날씨 및 강수 정도를 분석하여 사용자에게 제공할 수 있다. 사용자는 자신이 확인하고자 하는 지역만의 국지적인 (정확한) 날씨를 실시간으로 파악할 수 있다. Accordingly, the precipitation determination apparatus 120 may analyze the real-time weather and precipitation degree of a specific area and provide it to the user by including each of the above-described components. The user can check the local (accurate) weather only in the area he wants to check in real time.

도 5는 본 발명의 일 실시예에 따른 강수 판단장치가 영상 내에서 강수 여부를 판단하는 방법을 도시한 순서도이다.5 is a flowchart illustrating a method of determining whether precipitation is present in an image by the apparatus for determining precipitation according to an embodiment of the present invention.

통신부(210)는 사용자 단말(130)로부터 사용자가 강수 여부를 확인하고자 하는 지역 정보를 수신한다(S510),The communication unit 210 receives area information for which the user wants to check whether precipitation is present from the user terminal 130 (S510),

통신부(210)는 해당 지역의 CCTV 영상을 CCTV(110)로부터 수신한다(S520).The communication unit 210 receives the CCTV image of the corresponding area from the CCTV 110 (S520).

분석부(230)는 수신한 CCTV 영상을 분석하여, 해당 지역의 날씨를 분류한다(S530). 분석부(230)는 메모리부(220) 내 저장된 제1 학습모델을 이용하여 수신한 CCTV 영상으로부터 해당 지역의 날씨를 분류한다.The analysis unit 230 analyzes the received CCTV image and classifies the weather in the corresponding area (S530). The analysis unit 230 classifies the weather in the corresponding area from the received CCTV image using the first learning model stored in the memory unit 220 .

분석부(230)는 영상 내 강수 성분을 검출하여, 해당 지역의 강수 정도를 분석한다(S540). 분석부(230)는 메모리부(220) 내 저장된 제2 학습모델을 이용하여, 해당 지역에 비가 오고 있는 경우, 영상 내에서 강수 성분을 검출하여 강수 정도를 분석한다.The analysis unit 230 detects a precipitation component in the image and analyzes the degree of precipitation in the corresponding area ( S540 ). The analysis unit 230 analyzes the degree of precipitation by detecting a precipitation component in the image when it is raining in the corresponding area by using the second learning model stored in the memory unit 220 .

통신부(210)는 분류 또는 분석된 결과를 사용자 단말(130)로 통지한다(S550).The communication unit 210 notifies the classified or analyzed result to the user terminal 130 (S550).

도 5에서는 각 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 각 도면에 기재된 순서를 변경하여 실행하거나 각 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.Although it is described that each process is sequentially executed in FIG. 5, this is merely illustrative of the technical idea of an embodiment of the present invention. In other words, a person of ordinary skill in the art to which an embodiment of the present invention pertains may change the order described in each drawing within a range that does not depart from the essential characteristics of an embodiment of the present invention, or perform one or more of each process. Since various modifications and variations can be applied by executing in parallel, FIG. 5 is not limited to a time-series order.

한편, 도 5에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes illustrated in FIG. 5 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored. That is, the computer-readable recording medium includes a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical readable medium (eg, a CD-ROM, a DVD, etc.). In addition, the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible without departing from the essential characteristics of the present embodiment by those of ordinary skill in the art to which this embodiment belongs. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

100: 강수 판단 시스템
110: CCTV
120: 강수 판단장치
130: 사용자 단말
210: 통신부
220: 메모리부
230: 판단부
240: 제어부
250: 학습부
420: 왜곡
100: precipitation judgment system
110: CCTV
120: precipitation judgment device
130: user terminal
210: communication unit
220: memory unit
230: judgment unit
240: control unit
250: study department
420: distortion

Claims (11)

사용자가 확인하고자 하는 확인지역의 날씨 및 강수여부를 판단하는 강수 판단장치에 있어서,
상기 확인지역의 정보를 사용자 단말로부터, 상기 확인지역의 CCTV 영상 또는 이미지를 CCTV로부터 각각 수신하며, 날씨 및 강수여부 판단결과를 상기 사용자 단말로 전송하는 통신부;
CCTV 영상 또는 이미지로부터 날씨를 분류하는 제1 학습모델 및 CCTV 영상 또는 이미지 내에서 강수 성분을 검출하는 제2 학습모델을 저장하는 메모리부;
상기 제1 학습모델을 이용하여 CCTV 영상 또는 이미지로부터 상기 확인지역의 날씨를 분류하고, 상기 제2 학습모델을 이용하여 CCTV 영상 또는 이미지 내 강수 성분이 얼마만큼 포착되는지를 판단하는 판단부; 및
상기 통신부, 상기 메모리부 및 상기 판단부의 동작을 제어하는 제어부를 포함하며,
상기 제1 학습모델은 각 날씨를 갖는 이미지들을 입력값으로, 해당 이미지들에 나타난 날씨 정보를 출력값으로 하여 학습된 모델로서, 이미지의 밝기, 색도 또는 채도의 차이로 날씨를 구분하고,
상기 제1 학습모델은 시계열적으로 연속적인 이미지를 입력데이터로 입력받아 학습함으로서, CCTV의 물리적인 이유로 인해 영상이 흐릿한 것인지 또는 날씨로 인한 것인지를 구별하고,
상기 제2 학습모델은 입력 데이터로서 이미지를 입력받으며, 입력된 이미지 내 빗방울로 인한 왜곡이 얼마나 존재하는지를 판단함으로서 강수 정도를 판단하는 것을 특징으로 하는 강수 판단장치.
In the precipitation determination device for determining the weather and precipitation in the confirmation area that the user wants to check,
a communication unit for receiving the information of the confirmed area from the user terminal and receiving CCTV images or images of the confirmed area from the CCTV, respectively, and transmitting the weather and precipitation determination results to the user terminal;
a memory unit for storing a first learning model for classifying weather from CCTV images or images and a second learning model for detecting a precipitation component in CCTV images or images;
a determination unit that classifies the weather of the confirmed area from the CCTV image or image using the first learning model, and determines how much precipitation component is captured in the CCTV image or image using the second learning model; and
a control unit for controlling the operation of the communication unit, the memory unit, and the determination unit;
The first learning model is a model learned by using images having each weather as an input value and weather information appearing in the images as an output value, and classifies the weather by differences in brightness, chromaticity or saturation of the images;
The first learning model learns by receiving and learning time-series continuous images as input data, and distinguishes whether the image is blurred due to the physical reason of the CCTV or is due to the weather,
The second learning model receives an image as input data, and determines the degree of precipitation by determining how much distortion due to raindrops exists in the input image.
제1항에 있어서,
상기 제1 학습모델은,
CCTV 영상 또는 이미지로부터 눈이나 비가 내리고 있는 날씨인지 또는 그렇지 않은 날씨인지를 분류하는 것을 특징으로 하는 강수 판단장치.
According to claim 1,
The first learning model,
Precipitation determination device, characterized in that it classifies whether it is snowing or raining weather or not, from CCTV images or images.
제2항에 있어서,
상기 판단부는,
상기 확인지역에 비가 내이고 있는 날씨일 경우, 상기 제2 학습모델을 이용하여 CCTV 영상 또는 이미지 내 강수 성분을 포착하는 것을 특징으로 하는 강수 판단장치.
3. The method of claim 2,
The judging unit,
Precipitation determination apparatus, characterized in that when it is raining weather in the confirmed area, capturing a precipitation component in a CCTV image or image using the second learning model.
제1항에 있어서,
외부로부터 상기 제1 학습모델과 상기 제2 학습모델 각각의 학습을 위한 입력 데이터 및 각 입력 데이터에 대한 출력 데이터를 수신하여, 상기 제1 학습모델 및 상기 제2 학습모델을 학습하는 학습부를 더 포함하는 것을 특징으로 하는 강수 판단장치.
According to claim 1,
Further comprising a learning unit for receiving input data for each of the first learning model and the second learning model and output data for each input data from the outside to learn the first learning model and the second learning model Precipitation judgment device, characterized in that.
제4항에 있어서,
상기 학습부는,
컨볼루션 신경망(Convolutional Neural Networks)을 이용하여 상기 제1 학습모델과 상기 제2 학습모델 각각의 학습을 위한 입력 데이터 및 각 입력 데이터에 대한 출력 데이터로부터 상기 제1 학습모델 및 상기 제2 학습모델을 학습하는 것을 특징으로 하는 강수 판단장치.
5. The method of claim 4,
The learning unit,
Using convolutional neural networks, the first learning model and the second learning model are obtained from the input data for each learning of the first and second learning models and the output data for each input data. Precipitation judgment device, characterized in that learning.
사용자로부터 사용자가 날씨 및 강수여부를 확인하고자 하는 확인지역의 정보를 입력받아 외부로 전달하는 사용자 단말;
기 설정된 장소에 배치되어, 장소 주변의 영상을 촬영하는 CCTV; 및
제1항 내지 제5항 중 어느 한 항의 강수 판단장치
를 포함하는 것을 특징으로 하는 강수 판단 시스템.
a user terminal for receiving information on a confirmed area in which the user wants to check weather and precipitation from the user and transmitting the information to the outside;
CCTV placed in a preset place to shoot an image around the place; and
The precipitation determination device of any one of claims 1 to 5
Precipitation judgment system comprising a.
삭제delete 삭제delete 삭제delete 삭제delete 강수 판단장치가 사용자가 확인하고자 하는 확인지역의 날씨 및 강수여부를 판단하는 방법에 있어서,
사용자 단말로부터 상기 확인지역의 정보를 수신하는 제1 수신과정;
상기 확인지역에 존재하는 CCTV로부터 CCTV 영상 또는 이미지를 수신하는 제2 수신과정;
CCTV 영상 또는 이미지로부터 날씨를 분류하는 제1 학습모델을 이용해, 상기 제2 수신과정에서 수신한 CCTV 영상 또는 이미지로부터 상기 확인지역의 날씨를 분류하는 분류과정;
CCTV 영상 또는 이미지 내에서 강수 성분을 검출하는 제2 학습모델을 이용해, 상기 제2 수신과정에서 수신한 CCTV 영상 또는 이미지 내 강수 성분이 얼마만큼 포착되는지를 판단하는 판단과정; 및
상기 분류과정에서 분류된 상기 확인지역의 날씨 및 상기 판단과정에서 판단된 강수 여부 판단 결과를 상기 사용자 단말로 전송하는 전송과정을 포함하고,
상기 제1 학습모델은 각 날씨를 갖는 이미지들을 입력값으로, 해당 이미지들에 나타난 날씨 정보를 출력값으로 하여 학습된 모델로서, 이미지의 밝기, 색도 또는 채도의 차이로 날씨를 구분하고,
상기 제1 학습모델은 시계열적으로 연속적인 이미지를 입력데이터로 입력받아 학습함으로서, CCTV의 물리적인 이유로 인해 영상이 흐릿한 것인지 또는 날씨로 인한 것인지를 구별하고,
상기 제2 학습모델은 입력 데이터로서 이미지를 입력받으며, 입력된 이미지 내 빗방울로 인한 왜곡이 얼마나 존재하는지를 판단함으로서 강수 정도를 판단하는 것을 특징으로 하는 강수 판단 판단방법.


In the method for the precipitation determination device to determine the weather and precipitation in the confirmation area that the user wants to check,
a first receiving process of receiving information on the confirmed area from a user terminal;
a second receiving process of receiving a CCTV image or image from the CCTV existing in the confirmation area;
a classification process of classifying the weather of the confirmed area from the CCTV images or images received in the second reception process using a first learning model for classifying weather from CCTV images or images;
a determination process of determining how much precipitation component is captured in the CCTV image or image received in the second reception process using a second learning model for detecting a precipitation component in the CCTV image or image; and
A transmission process of transmitting the weather of the confirmed area classified in the classification process and the precipitation determination result determined in the determination process to the user terminal,
The first learning model is a model learned by using images having each weather as an input value and weather information appearing in the images as an output value, and classifies the weather by differences in brightness, chromaticity or saturation of the images;
The first learning model learns by receiving and learning time-series continuous images as input data, and distinguishes whether the image is blurred due to the physical reason of the CCTV or is due to the weather,
The second learning model receives an image as input data, and determines the degree of precipitation by determining how much distortion due to raindrops exists in the input image.


KR1020210152063A 2021-11-08 2021-11-08 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis KR102457470B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210152063A KR102457470B1 (en) 2021-11-08 2021-11-08 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210152063A KR102457470B1 (en) 2021-11-08 2021-11-08 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

Publications (1)

Publication Number Publication Date
KR102457470B1 true KR102457470B1 (en) 2022-10-21

Family

ID=83805212

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210152063A KR102457470B1 (en) 2021-11-08 2021-11-08 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

Country Status (1)

Country Link
KR (1) KR102457470B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565747B1 (en) 2022-11-25 2023-08-11 대한민국 Regional precipitation nowcasting system and method based on cyclegan extension

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858339B1 (en) * 2016-04-18 2018-06-28 주식회사 월드텍 Apparatus for weather observation using camera captured images and method thereof
JP2021037904A (en) * 2019-09-05 2021-03-11 公益財団法人鉄道総合技術研究所 Object detection device and system and method for the same
KR20210032075A (en) * 2019-09-16 2021-03-24 (주)시정 System for image analysis using artificial intelligence and method using the same
JP2021056882A (en) * 2019-09-30 2021-04-08 アイシン精機株式会社 Periphery monitoring device and periphery monitoring program
JP2021061524A (en) * 2019-10-07 2021-04-15 株式会社デンソー Raindrop recognition device, vehicle control device, learning method, and learned model
KR20210075533A (en) * 2019-12-13 2021-06-23 한국건설기술연구원 Vision-based Rainfall Information System and Methodology Using Deep Learning
KR102388754B1 (en) * 2021-11-08 2022-04-20 주식회사 윈드위시 Apparatus and Method for Determining the Concentration of Fine Dust Based on Artificial Intelligence Using Image Analysis

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858339B1 (en) * 2016-04-18 2018-06-28 주식회사 월드텍 Apparatus for weather observation using camera captured images and method thereof
JP2021037904A (en) * 2019-09-05 2021-03-11 公益財団法人鉄道総合技術研究所 Object detection device and system and method for the same
KR20210032075A (en) * 2019-09-16 2021-03-24 (주)시정 System for image analysis using artificial intelligence and method using the same
JP2021056882A (en) * 2019-09-30 2021-04-08 アイシン精機株式会社 Periphery monitoring device and periphery monitoring program
JP2021061524A (en) * 2019-10-07 2021-04-15 株式会社デンソー Raindrop recognition device, vehicle control device, learning method, and learned model
KR20210075533A (en) * 2019-12-13 2021-06-23 한국건설기술연구원 Vision-based Rainfall Information System and Methodology Using Deep Learning
KR102388754B1 (en) * 2021-11-08 2022-04-20 주식회사 윈드위시 Apparatus and Method for Determining the Concentration of Fine Dust Based on Artificial Intelligence Using Image Analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565747B1 (en) 2022-11-25 2023-08-11 대한민국 Regional precipitation nowcasting system and method based on cyclegan extension

Similar Documents

Publication Publication Date Title
US11398018B2 (en) Video shadow and motion removal system
CN109461168B (en) Target object identification method and device, storage medium and electronic device
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
KR102478335B1 (en) Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection
CN110781836A (en) Human body recognition method and device, computer equipment and storage medium
US20150339811A1 (en) Systems and methods for haziness detection
US20160171310A1 (en) Image recognition system, server apparatus, and image recognition method
EP3361412B1 (en) Black ice detection system, program, and method
CN111638565A (en) Method for monitoring rainstorm in mountainous area
CN113469278B (en) Strong weather target identification method based on deep convolutional neural network
CN112862150A (en) Forest fire early warning method based on image and video multi-model
KR102457470B1 (en) Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis
CN113095114A (en) Method, device and equipment for detecting oil leakage of hydraulic system
CN114708555A (en) Forest fire prevention monitoring method based on data processing and electronic equipment
KR102366544B1 (en) Vision-based Rainfall Information System and Methodology Using Deep Learning
CN115761537A (en) Power transmission line foreign matter intrusion identification method oriented to dynamic characteristic supplement mechanism
US11605220B2 (en) Systems and methods for video surveillance
CN113935386A (en) Target detection method and device
CN110751014A (en) Flame detection system and method
CN114067534B (en) Geological disaster early warning method and system based on machine vision
CN113705442A (en) Outdoor large-board advertising picture monitoring and identifying system and method
CN111291597A (en) Image-based crowd situation analysis method, device, equipment and system
San Miguel et al. A flood detection and warning system based on video content analysis
CN116912721B (en) Power distribution network equipment body identification method and system based on monocular stereoscopic vision
CN116910491B (en) Lightning monitoring and early warning system and method, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant