KR101969716B1 - Method and system for predicting characteristic value of space - Google Patents

Method and system for predicting characteristic value of space Download PDF

Info

Publication number
KR101969716B1
KR101969716B1 KR1020180129272A KR20180129272A KR101969716B1 KR 101969716 B1 KR101969716 B1 KR 101969716B1 KR 1020180129272 A KR1020180129272 A KR 1020180129272A KR 20180129272 A KR20180129272 A KR 20180129272A KR 101969716 B1 KR101969716 B1 KR 101969716B1
Authority
KR
South Korea
Prior art keywords
frame
time point
sub
output
characteristic value
Prior art date
Application number
KR1020180129272A
Other languages
Korean (ko)
Inventor
정창후
김원수
장동민
주원균
Original Assignee
한국과학기술정보연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술정보연구원 filed Critical 한국과학기술정보연구원
Priority to KR1020180129272A priority Critical patent/KR101969716B1/en
Application granted granted Critical
Publication of KR101969716B1 publication Critical patent/KR101969716B1/en
Priority to PCT/KR2019/012477 priority patent/WO2020085661A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Disclosed is an apparatus for predicting a space feature value. According to the present invention, the apparatus comprises: an input unit to which one or more first frames including an actual measured feature value of predetermined space and one or more second frames including a predicted feature value of the predetermined space are inputted at a predetermined period; and a processor increasing the calculation accuracy of a deep learning model using the actual measured feature value included in the first frames and the predicted feature value included in the second frames before a specific point (T) and predicting a feature value included in a frame after the specific point (T) using the deep learning model. Accordingly, the feature value of the space may be easily predicted.

Description

공간 특성값 예측 방법 및 이를 적용한 시스템{METHOD AND SYSTEM FOR PREDICTING CHARACTERISTIC VALUE OF SPACE}Prediction method of spatial characteristic value and system applying it {METHOD AND SYSTEM FOR PREDICTING CHARACTERISTIC VALUE OF SPACE}

본 발명은 소정 공간에서 수집된 특성값을 예측하는 방법 및 시스템에 관한 것으로 더 상세하게는 딥 러닝(Deep Learning) 알고리즘을 이용하여 소정 공간의 특성값을 예측하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for predicting a characteristic value collected in a predetermined space, and more particularly, to a method and system for predicting a characteristic value of a predetermined space using a deep learning algorithm.

슈퍼 컴퓨터를 이용하더라도 수집 데이터의 량이 방대하고 시간에 따라 변화폭이 큰 데이터의 경우 예측 데이터의 정확도가 실측 데이터를 따라가지 못하는 경우가 발생되는데, 기상 정보 예측 분야가 대표적인 경우라 할 수 있다.Even when using a super computer, a large amount of collected data and a large variation with time may occur when the accuracy of the predicted data does not follow the measured data.

기상 정보는 실제 위성 시스템, 레이더 시스템 및 AWS(Automatic Weather Station) 등을 통해서 실제로 측정되기도 하지만 다양한 기상 모델(가령, WRF(Weather Research and Forecasting Model))을 통해 예측되기도 한다. 다만, 예측의 정확도가 일정하게 보장되는 것은 아니다.Weather information is actually measured by real satellite systems, radar systems, and automatic weather stations (AWS), but also by various weather models (eg, Weather Research and Forecasting Model). However, the accuracy of the prediction is not always guaranteed.

이에, 보다 정확한 기상 정보를 예측하는 방법이 필요하다 할 것이며, 더 나아가 기상 정보 예측 뿐만 아니라 다양한 분야에서 예측 정보의 정확도를 향상시키는 방법이 요구된다 할 것이다. Therefore, there is a need for a method for predicting more accurate weather information. Furthermore, a method for improving the accuracy of prediction information in various fields as well as forecasting weather information will be required.

한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드(background) 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.On the other hand, the above information is only presented as background information to help the understanding of the present invention. No determination is made as to whether any of the above is applicable as the prior art concerning the present invention, and no claims are made.

공개특허공보 제10-2004-0092403호(공개일 : 2004.11.3)Patent Publication No. 10-2004-0092403 (Published: 2004.11.3)

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로 본 발명의 일 실시 예는 소정 공간의 특성값을 보다 정확하게 예측하는 방법 및 이를 적용한 시스템을 제안한다.The present invention has been made to solve the above-described problem, an embodiment of the present invention proposes a method for more accurately predicting a characteristic value of a predetermined space and a system applying the same.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 발명의 일 실시 예에 따른 공간의 특성값 예측 장치는 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 입력부; 및 특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키며, 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측한다.According to an embodiment of the present invention, an apparatus for predicting a feature of space may include one or more first frames including measured feature values of a predetermined space and at least one second frame including predicted feature values of the predetermined space at a predetermined time period. An input unit to be input; And before a specific point in time T, by using the measured characteristic value included in the first frame and the prediction characteristic value included in the second frame, to improve the calculation accuracy of the deep learning model, and after the specific point in time T. In the case of using the deep learning model to predict the characteristic value included in the frame after the specific time point (T).

보다 구체적으로, 상기 프로세서는, 상기 특정 시점(T) 이후의 소정 타임 구간에 대해, 상기 특정 시점(T)의 제1 프레임을 상기 딥러닝 모델의 연산에 의해 제1 미래 시점(T+1)의 제1 프레임으로 출력하고, 출력된 제1 미래 시점(T+1)의 제1 프레임을 상기 딥러닝 모델의 연산에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하는 것을 상기 소정 타임 구간동안 반복하며, 상기 소정 타임 구간 동안에 출력된 제1 프레임에 대응되는 제2 프레임을 상기 딥러닝 모델의 연산에 의해 출력하고, 상기 소정 타임 구간에 대응되는 제1 프레임의 특성값을 상기 제2 프레임에 포함된 예측 특성값에 기초하여 보정할 수 있다.More specifically, the processor is further configured to perform a first frame of the first time point T + 1 on the first frame of the specific time point T by a calculation of the deep learning model for a predetermined time interval after the specific time point T. Outputting the first frame of the first future view T + 1 and outputting the first frame of the second future view T + 2 by the operation of the deep learning model. Repeating for a predetermined time interval, outputting a second frame corresponding to the first frame output during the predetermined time interval by calculation of the deep learning model, and outputting a characteristic value of the first frame corresponding to the predetermined time interval; The correction may be based on the prediction characteristic value included in the second frame.

보다 구체적으로, 상기 딥러닝 모델은, 제1 서브 네트워크 모델, 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델을 포함하며, 상기 프로세서는, 상기 특정 시점(T) 이전의 실측 특성값을 포함하는 하나 이상의 제1 프레임을 입력 프레임으로 상기 제1 서브 네트워크 모델의 연산을 수행하여 출력 프레임을 출력하고, 상기 출력 프레임과 상기 입력 프레임을 비교하여 상기 제1 서브 네트워크 모델의 연산 정확도를 향상시킬 수 있다.More specifically, the deep learning model includes a first sub-network model, a second sub-network model, and a third sub-network model, wherein the processor includes a measured characteristic value before the specific time point T. The first frame may be used as an input frame to perform an operation of the first sub-network model to output an output frame, and the output frame may be compared with the input frame to improve the calculation accuracy of the first sub-network model.

보다 구체적으로, 상기 프로세서는, 상기 특정 시점(T)의 실측 특성값을 포함하는 제1 프레임을 상기 제1 서브 네트워크 모델의 연산을 수행하여 제1 미래 시점(T+1)의 제1 프레임을 출력하고, 출력된 제1 미래 시점(T+1)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하며, 출력된 제2 미래 시점(T+2)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제3 미래 시점(T+3)의 제1 프레임으로 출력하며, 출력된 제3 미래 시점(T+3)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제4 미래 시점(T+4)의 제1 프레임으로 출력하는 것을 상기 소정 타임 구간동안 반복할 수 있다.More specifically, the processor is configured to perform a calculation of the first sub-network model on a first frame including the measured characteristic value of the specific time point T to generate a first frame of a first future time point T + 1. Outputs the first frame at the first future time point T + 1 and outputs the first frame at the second future time point T + 2 by the operation of the second sub-network model, and outputs the second frame. The first frame of the future time point T + 2 is output to the first frame of the third future time point T + 3 by the operation of the second sub-network model, and the outputted third future time point T + 3 is output. The outputting of the first frame of as a first frame of the fourth future time point T + 4 by the calculation of the second sub-network model may be repeated during the predetermined time period.

보다 구체적으로, 상기 프로세서는, 상기 소정 타임 구간 동안에 출력된 제1 프레임에 대응되는 제2 프레임을 상기 제3 서브 네트워크 모델의 입력으로 하여, 제3 서브 네트워크 모델의 연산에 의해 제2 프레임의 예측 특성값을 보정할 수 있다.More specifically, the processor is configured to predict a second frame by calculating a third sub-network model using a second frame corresponding to the first frame output during the predetermined time interval as the input of the third sub-network model. The characteristic value can be corrected.

보다 구체적으로, 상기 제1 서브 네트워크 모델, 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델은 상기 프레임에 포함된 특성값을 추상화 정보로 압축하는 복수의 컴프레션(Compression) 레이어를 포함하며, 추상화 정보를 프레임에 포함된 특성값으로 압축을 푸는 복수의 디컴프레션(Decompression) 레이어를 포함할 수 있다.More specifically, the first sub-network model, the second sub-network model, and the third sub-network model include a plurality of compression layers for compressing characteristic values included in the frame into abstraction information, and includes abstraction information. It may include a plurality of decompression (decompression) layer to be decompressed by the feature value included in the frame.

보다 구체적으로, 상기 프로세서는, 상기 제1 서브 네트워크 모델의 컴프레션 레이어에 포함된 특정 상태값을, 상기 제1 서브 네트워크 모델의 컴프레션 레이어에 대응되는 상기 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델의 디컴프레션 레이어로 제공할 수 있다.More specifically, the processor is further configured to determine a specific state value included in the compression layer of the first sub-network model of the second sub-network model and the third sub-network model corresponding to the compression layer of the first sub-network model. Can be provided as a decompression layer.

보다 구체적으로, 상기 소정 공간은 복수의 영역으로 분할되고, 상기 프로세서는, 상기 분할된 영역 중 일부 이상의 분할 영역에 대한 실측 특성값을 타임순으로 수집하고, 상기 실측 특성값이 수집된 분할 영역 및 상기 실측 특성값이 수집되지 않은 분할 영역에 대한 예측 특성값을 타임순으로 수집할 수 있다.More specifically, the predetermined space is divided into a plurality of regions, and the processor collects the measured characteristic values of at least a portion of the divided regions in chronological order, and includes a divided region in which the measured characteristic values are collected; The predictive characteristic values for the partitioned region in which the measured characteristic values are not collected may be collected in chronological order.

보다 구체적으로, 상기 실측 특성값 및 예측 특성값은 상기 소정 공간의 강수 정보를 나타내는 수치일 수 있다.More specifically, the measured characteristic value and the predicted characteristic value may be numerical values representing precipitation information of the predetermined space.

한편, 본 발명의 일 실시 예에 따른 프로세서에 의해 수행되는 공간의 특성값 예측 방법은, 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 단계; 특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 단계; 및 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 단계를 포함한다.Meanwhile, the method for predicting a feature value of a space performed by a processor according to an embodiment of the present disclosure may include at least one first frame including an actual feature value of a predetermined space and at least one prediction feature value of the predetermined space. Inputting a second frame at a predetermined time period; Before a specific point in time, improving a computational accuracy of the deep learning model using the measured characteristic values included in the first frame and the predicted characteristic values included in the second frame; And after the specific time point T, predicting a characteristic value included in the frame after the specific time point T using the deep learning model.

한편, 본 발명의 일 실시 예에 따른 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 비일시적 컴퓨터 판독 가능한 기록 매체에서 상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가, 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 동작, 특정 시점(T) 이전의 경우 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 동작 및 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.On the other hand, in a non-transitory computer-readable recording medium that records a program for execution on a computer according to an embodiment of the present invention, when the program is executed by a processor, the program includes a measured characteristic value of a predetermined space An operation of inputting at least one second frame including at least a first frame and a predicted characteristic value of the predetermined space at a predetermined time period, and before a specific point in time, the measured characteristic value included in the first frame and the first The operation of improving the computational accuracy of the deep learning model using the prediction characteristic values included in the two frames, and after a specific time point T, is included in the frame after the specific time point T using the deep learning model. And an executable instruction to perform an operation of predicting a characteristic value.

상기 공간 특성값 예측 방법 및 이를 적용한 시스템이 제공됨으로써 아래와 같은 효과가 발생된다.By providing the method of predicting the spatial characteristic value and the system applying the same, the following effects are generated.

첫째로, 특정 시점까지 수집된 소정 공간에 대한 특성값를 학습하여, 특정 시점 이후의 소정 공간에 대한 특성값 예측의 정확도가 향상될 수 있다.First, by learning the characteristic values for a predetermined space collected up to a specific time point, the accuracy of the characteristic value prediction for the predetermined space after the specific time point may be improved.

둘째로, 실측 데이터와 예측 데이터가 모두 구비된 경우, 미래의 예측 데이터가 보다 정확하게 도출될 수 있다.Second, when both the measured data and the predicted data are provided, the future predicted data can be derived more accurately.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 발명의 일 실시 예에 따른 소정 공간의 실측 특성값을 나타낸다.
도 2(a) 및 도 2(b)는 본 발명의 일 실시 예에 따른 공간 특성값 예측 시스템의 개략적인 구동을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 공간 특성값 예측 시스템의 구성을 나타내는 블록도이다.
도 4 내지 도 7은 본 발명의 일 실시 예에 따른 공간 특성값의 구동을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 공간 특성값 예측 시스템의 성능을 나타내는 그래프이다.
1 illustrates measured characteristic values of a predetermined space according to an embodiment of the present invention.
2 (a) and 2 (b) are diagrams for explaining a schematic driving of a spatial characteristic value prediction system according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of a spatial characteristic value prediction system according to an embodiment of the present invention.
4 to 7 are views for explaining the driving of the spatial characteristic value according to an embodiment of the present invention.
8 is a graph showing the performance of the spatial characteristic value prediction system according to an embodiment of the present invention.

이하 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에서는 실측 정보를 정확하게 예측하는 방법을 설명하는데 있어 기상 정보 중 강수 정보를 예를 드나, 이는 일 실시 예에 불과하고 다양한 실측 정보가 후술할 내용에 의해 예측될 수 있다. Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification, in describing a method of accurately predicting measured information, precipitation information is included among weather information, but this is only an example, and various measured information may be predicted by the following description.

다만, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.However, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 발명의 일 실시 예에 따른 소정 공간(SP)의 실측 특성값을 나타낸다. 여기서, 소정 공간은 대한민국의 국토 및 인근 바다를 포함하며, 실측 특성값은 특성값을 실제로 측정한 값을 의미하며, 특성값은 강수 정보를 예를 들어 설명하나 실측 및 예측 가능한 데이터가 다양한 특성값으로 설정될 수 있다.1 illustrates measurement characteristic values of a predetermined space SP according to an embodiment of the present invention. Here, the predetermined space includes the national territory of the Republic of Korea and the nearby sea, and the measured characteristic value means the value of actually measuring the characteristic value. Can be set.

AWS(Automatic Weather Station)는 자동으로 기상 관측을 수행하는 시스템이며, 온도 정보, 풍향 정보, 습도 정보, 기압 정보, 강수 정보, 일사 정보, 일조 정보 등을 자동으로 수집할 수 있는 시스템이며, 본 명세서에서는 상기 AWS 에서 수집된 강수 정보를 예를 들어 설명하기로 한다. 상기 강수 정보는 AWS 이외에 인공 위성 또는 레이더를 통해 수집될 수도 있으며 다른 실측 장비를 통해서도 수집될 수 있다.AWS (Automatic Weather Station) is a system that automatically performs weather observation, a system that can automatically collect temperature information, wind direction information, humidity information, air pressure information, precipitation information, solar radiation information, sunshine information, etc. In the following description, precipitation information collected by AWS will be described as an example. The precipitation information may be collected through satellite or radar in addition to AWS, and may also be collected through other measurement equipment.

본 명세서에서는 실제 기상 정보를 예측하는 정보는 WRF(Weather Research and Forecasting Model)을 이용하며, WRF 는 지역 기상 수치 모델로 초기 조건과 경계 조건이 있고, 대기권, 수권, 빙권, 생권, 지권 등의 정보를 예측할 수 있으며, 상대적으로 높은 시공간 해상도를 가진다.In the present specification, information for predicting actual weather information uses WRF (Weather Research and Forecasting Model), and WRF is a local weather numerical model, which has initial conditions and boundary conditions, and information on the atmosphere, hydrosphere, ice field, life zone, and land zone. Can be predicted and has a relatively high space-time resolution.

이하에서는 본 발명의 일 실시 예에 따른 공간 특성 예측 시스템(도 3의 100)의 개략적인 구동을 도 2(a) 및 도 2(b)를 참고하여 설명하기로 한다. 도 2(a)는 실측 특성값을 나타내고, 도 2(b)는 예측 특성값을 나타낸다.Hereinafter, a schematic driving of the spatial characteristic prediction system 100 of FIG. 3 according to an exemplary embodiment of the present invention will be described with reference to FIGS. 2A and 2B. 2 (a) shows measured characteristic values, and FIG. 2 (b) shows predicted characteristic values.

도 2(a) 및 도 2(b)를 참고하면, 특정 시점(T)을 현재로 가정하면 T+1은 하루가 도과한 시점이며, T+2는 이틀이 도과한 시점이고, T-1 은 하루 이전 시점이며, T-2는 이틀 이전 시점을 나타내나, 이는 하나의 예일 뿐이며 실시 예에 따라서는 +1, -1 이 수초, 수분, 수시간을 표현하는 것으로 구현될 수 있다.2 (a) and 2 (b), assuming a specific time T, T + 1 is the time when one day has passed, T + 2 is the time when two days have passed, and T-1 Is a point in time a day ago, T-2 represents a point in time two days ago, but this is only one example, and according to an embodiment, +1 and -1 may be implemented to represent seconds, minutes, and hours.

공간 특성값 예측 시스템(100)은 실측 특성값의 T-1~T 구간(11)의 실측 특성값을 이용하여 T~T+1 구간의 실측 특성값(15)을 예측하고, 예측된 실측 특성값(15)을 T~T+1의 예측 특성값(13)에 기초하여, T~T+1 구간의 실측 특성값(15)을 수정할 수 있다.The spatial characteristic value prediction system 100 predicts the measured characteristic value 15 of the T to T + 1 section by using the measured characteristic value of the T-1 to T section 11 of the measured characteristic value, and predicts the measured characteristic. Based on the prediction characteristic value 13 of T-T + 1, the measured value 15 can correct the measured characteristic value 15 of the T-T + 1 section.

여기서, 실측 특성값은 하나 이상의 복수 소스(Source)로부터 수집될 수 있다. 가령, 강수 정보는 AWS, 인공 위성, 레이더를 통해 함께 수집되고, 복수의 소스의 데이터 및 예측 데이터를 모두 반영하여 미래의 데이터가 예측될 수 있다.Here, the measured characteristic value may be collected from one or more sources. For example, precipitation information may be collected together through AWS, satellites, and radar, and future data may be predicted by reflecting both data and prediction data from multiple sources.

이하에서는 도 3을 참고하여 공간 특성값 예측 시스템(100)의 구성을 자세히 설명하기로 한다. 공간 특성값 예측 시스템(100)은 소정 공간으로부터 수집된 실측 특성값과 예측 특성값에 기초하여 소정 공간에 대한 미래의 특성값을 예측할 수 있다.Hereinafter, the configuration of the spatial characteristic value prediction system 100 will be described in detail with reference to FIG. 3. The spatial characteristic value prediction system 100 may predict future characteristic values for the predetermined space based on the measured characteristic values and the predicted characteristic values collected from the predetermined space.

도 3을 참고하면, 공간 특성 예측 시스템(100)은 입력부(110), 디스플레이(120), 저장부(130), 프로세서(140)를 포함한다. 다만, 상술한 구성들은 본 발명을 설명하는데 반드시 필수적인 구성은 아닌 바, 본 발명의 일 실시 예에 따른 공간 특성 예측 시스템(100)는 상술한 구성보다 더 많거나 적은 구성을 포함할 수 있다.Referring to FIG. 3, the spatial characteristic prediction system 100 includes an input unit 110, a display 120, a storage unit 130, and a processor 140. However, the above-described components are not necessarily required to describe the present invention, and therefore, the spatial characteristic prediction system 100 according to an exemplary embodiment of the present invention may include more or less components than those described above.

구체적으로, 입력부(110)는 소정 공간(SP)의 실측 특성값 및 예측 특성값을 시간순으로 소정의 타임 주기로 입력 받을 수 있다. 입력 단위는 프레임이며, 프레임은 소정 고간(SP)의 특성값을 모두 포함하는 사이즈이며, 복수의 영역으로 분할될 수 있고 분할 영역마다 특성값이 포함될 수 있다. In detail, the input unit 110 may receive the measured characteristic value and the predicted characteristic value of the predetermined space SP in a predetermined time period. The input unit is a frame, and the frame is a size including all the characteristic values of the predetermined groin SP. The input unit may be divided into a plurality of regions, and the characteristic values may be included in each divided region.

디스플레이(120)는 프로세서(140)의 제어에 따라 다양한 정보를 시각화할 수 있다. 디스플레이(120)는 데이터가 표시되는 표시부로 디스플레이(120)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 120 may visualize various information under the control of the processor 140. The display 120 is a display unit on which data is displayed. The display 120 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), and an organic light emitting diode (organic light). emitting diodes (OLEDs), flexible displays, 3D displays, and e-ink displays.

저장부(130)는 수집된 데이터가 저장되는 모듈로, 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 130 is a module in which the collected data is stored. The storage unit 130 is a flash memory type, a hard disk type, a solid state disk type, or an SDD type. (Silicon Disk Drive type), multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), It may include a storage medium of at least one type of read-only memory (ROM), electrically erasable programmable read-only memory (EPEROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. .

프로세서(140)는 공간 특성 예측 시스템(100)을 전반적으로 제어하는 모듈에 해당되며, 훈련 단계에서는 실측 특성값과 기상수치모델의 예측값을 이용하여 딥러닝 알고리즘을 학습하며, 예측 단계에서는 학습된 딥러닝 알고리즘을 이용하여 예측을 수행하고 최신 데이터의 경향을 반영하고 싶은 경우에 최신 데이터에 대해서 재학습을 수행할 수 있다.The processor 140 corresponds to a module for controlling the overall spatial characteristic prediction system 100. In the training phase, the processor 140 learns a deep learning algorithm using the measured characteristic value and the predicted value of the meteorological numerical model. If you want to use the learning algorithm to make predictions and reflect the trends of the latest data, you can relearn the latest data.

특정 시점(T)을 훈련 단계와 예측 단계를 구분하는 시점이라고 하면, 프로세서(140)는 특정 시점(T) 이전의 경우 실측 특성값을 포함하는 제1 프레임들을 입력으로 하여 딥러닝 연산을 수행하고, 출력되는 제1 프레임과 실제로 측정된 제1 프레임(Ground Truth)을 비교하여 딥러닝 알고리즘의 정확도를 향상시킬 수 있다. 또한, 프로세서(140)는 특정 시점(T) 이전의 예측 특성값을 포함하는 제2 프레임들을 입력으로 하여 딥러닝 연산을 수행하고, 출력되는 제2 프레임과 실제로 측정된 제1 프레임(Ground Truth)을 비교하여 딥러닝 알고리즘의 정확도를 향상시킬 수 있다. If the specific time point T is a time point that separates the training step from the prediction step, the processor 140 performs a deep learning operation by inputting first frames including the measured characteristic value before the specific time point T. The accuracy of the deep learning algorithm may be improved by comparing the output first frame with the actually measured first frame. In addition, the processor 140 performs a deep learning operation by inputting second frames including prediction characteristic values before a specific point in time T, and outputs the second frame and the first frame (Ground Truth) actually measured. The accuracy of the deep learning algorithm can be improved by comparing

이하에서는, 도 4 내지 도 7을 참고하여 프로세서(140)의 구체적인 동작을 설명하기로 한다. 도 4는 본 발명의 일 실시 예에 따른 딥러닝 모델의 전체 시스템도를 나타내며, 도 5 내지 도 7은 상기 딥러닝 모델의 부분 시스템도를 나타낸다. 여기서 실측 특성값은 AWS 로부터 수집된 데이터이나, 구현예에 따라서는 인공위성 시스템으로부터 실측된 데이터나, 레이더 시스템으로부터 실측된 데이터가 이용될 수 있으며, 복수의 소스로부터 실측된 데이터가 함께 적용될 수 있다. Hereinafter, specific operations of the processor 140 will be described with reference to FIGS. 4 to 7. 4 illustrates an overall system diagram of a deep learning model according to an embodiment of the present invention, and FIGS. 5 to 7 illustrate partial system diagrams of the deep learning model. Here, the measured characteristic value may be data collected from AWS, or data measured from a satellite system or data measured from a radar system may be used depending on an embodiment, and data measured from a plurality of sources may be applied together.

딥러닝 모델(400)은 시간순으로 입력되는 데이터를 처리하는데 수월한 RNN(Recurrent Neural Network) 알고리즘을 변형한 모델이며, 실시 예에 따라서는 다양한 딥러닝 알고리즘이 적용될 수 있다. 딥러닝 모델(400)은 제1 서브 네트워크 모델(1SNM), 제2 서브 네트워크 모델(2SNM) 및 제3 서브 네트워크 모델(3SNM)을 포함할 수 있다.The deep learning model 400 is a model of a modified Recurrent Neural Network (RNN) algorithm that is easy to process data input in chronological order, and various deep learning algorithms may be applied according to embodiments. The deep learning model 400 may include a first sub network model 1SNM, a second sub network model 2SNM, and a third sub network model 3SNM.

딥러닝 모델(400)의 입력은 입력 프레임이며, 입력 프레임은 실측 특성값을 포함하는 제1 프레임 및 예측 특성값을 포함하는 제2 프레임을 포함할 수 있다. 딥러닝 모델의 출력은 실측 특성값을 포함하는 제1 프레임 및 예측 특성값을 포함하는 제2 프레임을 포함할 수 있다. 프레임 하나하나는 복수의 영역으로 구분가능한데, 가령 한반도의 강수 정보를 표현하는 경우 소정 공간이 708*708 그리드로 1Km 해상도인 경우, 각 구분된 격자에서 실측 강수량값이나 예측 강수량값이 표현될 수 있다.The input of the deep learning model 400 may be an input frame, and the input frame may include a first frame including the measured characteristic value and a second frame including the prediction characteristic value. The output of the deep learning model may include a first frame including the measured characteristic value and a second frame including the predicted characteristic value. Each frame can be divided into a plurality of areas. For example, when expressing precipitation information of the Korean Peninsula, when a predetermined space has a resolution of 1Km in a 708 * 708 grid, an actual precipitation value or a predicted precipitation value may be expressed in each divided grid. .

프로세서(140)은 입력 프레임을 시간순으로 순차적으로 입력받을 수 있으며, 입력 받는 주기는 10분 내지 6시간일 수 있으며, 실시 예에 따라서는 다양한 주기로 입력될 수 있다. 하나의 입력 프레임에 대한 딥러닝 연산이 완료되고, 그 다음의 입력 프레임이 순차적으로 딥러닝 연산을 수행하게 될 수 있다. 또한, 실시 예에 따라서는, CNN 레이어(후술할 컨볼루션 셀 및 디컨볼루션 셀)에서는 입력 프레임 간의 데이터 의존성이 없기 때문에 여러 입력 프레임에 대해서 병렬처리가 가능하며, 후술할 컨볼루션 LSTM에서는 이전 프레임 처리 결과에 의존하기 ?문에 순차적으로 수치처리가 수행될 수 있다. The processor 140 may sequentially receive the input frames in chronological order, and the input receiving period may be 10 minutes to 6 hours, and may be input in various periods according to the embodiment. The deep learning operation for one input frame is completed, and the next input frame may sequentially perform the deep learning operation. Further, according to an embodiment, since there is no data dependency between input frames in the CNN layer (convolution cell and deconvolution cell to be described later), multiple input frames can be processed in parallel, and in the convolution LSTM to be described later, the previous frame is used. Numerical processing may be performed sequentially depending on the processing result.

딥러닝 모델(400)의 제1 서브 네트워크 모델(1SNM) 내지 제3 서브 네트워크 모델(3SNM)을 구체적으로 설명하기로 한다. 제1 서브 네트워크 모델(1SNM)은 입력 프레임과 출력 프레임을 동일하게 설정하여, 데이터 본연의 성질을 최대한 보유하면서 compressed tensor 를 생성할 수 있다. The first sub network model 1SNM to the third sub network model 3SNM of the deep learning model 400 will be described in detail. The first sub-network model 1SNM may set the input frame and the output frame in the same manner to generate a compressed tensor while retaining the nature of data.

도 4를 도 5와 함께 참고하면, 제1 서브 네트워크 모델(1SNM)은 특정 시점(T) 이전의 실측 특성값을 나타내는 제1 프레임들(At-5 내지 At)에 딥러닝 연산을 수행하여 제1 프레임들(A't -5 내지 A't)을 출력할 수 있다. 상기 제1 프레임들(At-5 내지 At)은 모두 실제로 측정된 데이터이므로 출력되는 제1 프레임들(A't -5 내지 A't)과의 차이가 정확하게 수정될 수 있다. Referring to FIG. 4 together with FIG. 5, the first sub-network model 1SNM performs a deep learning operation on the first frames A t-5 to A t representing the measured characteristic values before a specific point in time T. The first frames A ' t -5 to A' t can be output. Since the first frames A t-5 to A t are all measured data, a difference from the output first frames A ' t- 5 to A' t can be accurately corrected.

제1 서브 네트워크 모델(1SNM)은 컨볼루션 셀(C11 내지 C13)과 디컨볼루션 셀(D11 내지 D13) 및 컨볼루션 LSTM(LS11 내지 LS15) 연산을 포함한다. The first sub-network model 1SNM includes operations of convolution cells C11 to C13 and deconvolution cells D11 to D13 and convolutional LSTMs LS11 to LS15.

컨볼루션 셀(C11 내지 C13)은 순차적으로 입력 프레임의 특성값 정보를 보다 추상화된 정보로 특징짓는 과정으로 컨볼루션(Convolution) 과정, 정규화(Batch Normalization) 과정, 활성함수(ReLU) 연산 과정을 포함한다. 컨볼루션 셀(C11 내지 C13)은 데이터 하나하나에 민감하지 않고 특정 특징을 추상화하면서 도출해 나가는 과정이라 할 수 있다.The convolution cells C11 to C13 sequentially characterize the characteristic value information of the input frame into more abstracted information. The convolution cells C11 to C13 include a convolution process, a batch normalization process, and an active function (ReLU) operation process. do. The convolution cells C11 to C13 are not sensitive to data one by one and can be referred to as a process of abstracting a specific feature.

디컨볼루션 셀(D11 내지 D13)은 컨볼루션 셀(C11 내지 C13)에 각각 대응되는 과정으로 추상화된 정보를 출력 프레임의 특성값 정보로 상세화하는 과정으로 디컨볼루션(Deconvolution) 과정, 정규화 과정, 활성함수 연산 과정을 포함한다. 구체적으로, 디컨볼루션 셀(D11)은 컨볼루션 셀(C11)에 대응되고, 디컨볼루션 셀(D12)은 컨볼루션 셀(C12)에 대응되며, 디컨볼루션 셀(D13)은 컨볼루션 셀(C13)에 각각 대응된다.The deconvolution cells D11 to D13 are processes corresponding to the convolution cells C11 to C13 to detail the abstracted information into the characteristic value information of the output frame. The deconvolution process, the normalization process, It includes an active function calculation process. Specifically, the deconvolution cell D11 corresponds to the convolution cell C11, the deconvolution cell D12 corresponds to the convolution cell C12, and the deconvolution cell D13 is the convolution cell. Corresponding to C13, respectively.

컨볼루션 LSTM(LS11 내지 LS15)은 LSTM의 업그레이드 버전으로 과거의 데이터를 현재의 연산에 반영하는 기능 뿐만 아니라 벡터로 입력, 출력되는 LSTM 의 방식을 컨볼루션 형태의 입력, 출력이 가능하게 하는 과정이다. LS3 컨볼루션 LSTM에 가장 추상화된 정보가 저장되며, LS2, LS1 으로 갈수록 상세화된 정보가 저장될 수 있다. 컨볼루션 LSTM(LS11 내지 LS15)은 입력 게이트, 출력 게이트, 망각 게이트가 있으며, 이 게이트들이 LSTM 상태값의 재귀적인 연산 및 전달을 제어함으로써 필요한 과거 데이터의 특징이 현재 데이터의의 연산에 반영될 수 있다.Convolution LSTM (LS11 to LS15) is an upgraded version of LSTM that enables the convolutional input and output of LSTM input and output as vector as well as the function of reflecting the past data to the current operation. . The most abstracted information is stored in the LS3 convolution LSTM, and detailed information may be stored toward the LS2 and LS1. The convolutional LSTM (LS11 to LS15) has an input gate, an output gate, and an oblivion gate, and these gates control recursive operation and transfer of LSTM state values so that the characteristics of past data required can be reflected in the operation of the current data. have.

LS1 컨볼루션 LSTM(LS1)은 제2 서브 네트워크 모델(2SNM) 및 제3 서브 네트워크 모델(3SNM)의 LS10, LS15 컨볼루션 LSTM에 상태 데이터가 전달될 수 있다. 이런 경우, LS10 및 LS15 컨볼루션 LSTM은 추상화를 수행하는데 이용된 상태 데이터를 수신하는 바, 보다 효과적으로 데이터를 상세화할 수 있다. In the LS1 convolution LSTM (LS1), state data may be transmitted to LS10 and LS15 convolutional LSTMs of the second sub-network model 2SNM and the third sub-network model 3SNM. In this case, the LS10 and LS15 convolutional LSTMs receive the state data used to perform the abstraction, so that the data can be refined more effectively.

마찬가지로, LS2 컨볼루션 LSTM(LS2)은 제2 서브 네트워크 모델(2SNM) 및 제3 서브 네트워크 모델(3SNM)의 LS9, LS14 으로 상태 데이터를 제공할 수 있고, LS3 컨볼루션 LSTM(LS3)은 제2 서브 네트워크 모델(2SNM) 및 제3 서브 네트워크 모델(3SNM)의 LS8, LS13 으로 상태 데이터를 제공하여 딥러닝 연산 효율이 보다 효과적일 수 있다. Similarly, the LS2 convolutional LSTM (LS2) may provide status data to LS9 and LS14 of the second subnetwork model 2SNM and the third subnetwork model 3SNM, and the LS3 convolutional LSTM (LS3) is the second. Deep learning operation efficiency may be more effective by providing state data to LS8 and LS13 of the sub network model 2SNM and the third sub network model 3SNM.

LS1 은 데이터의 특징을 많이 압축하지는 못하나, 원본 데이터 내 객체의 지역적인 특성을 어느 정도 보관할 수 있다. LS2는 데이터의 특징을 의미 있게 압축하면서 원본 데이터 내 객체의 지역적인 특성을 어느 정도 잃어버리지만 전체 모양을 어느 정도 추상화할 수 있다. LS3은 데이터의 특징을 최대한 압축하면서 원본 데이터 내 객체의 지역적인 특성을 손실되지만 프레임 안에 존재하는 객체의 전체적인 형상이 보존된 채로 추상화할 수 있다.LS1 does not compress much of the characteristics of the data, but it can retain some of the local characteristics of the objects in the original data. LS2 compresses the characteristics of the data meaningfully, losing some of the local characteristics of the objects in the original data, but it can abstract the overall appearance to some extent. While the LS3 compresses the features of the data as much as possible, it loses the local characteristics of the objects in the original data, but can abstract it while preserving the overall shape of the objects in the frame.

도 4를 도 6과 함께 참고하면, 제2 서브 네트워크 모델(2SNM)은 컨볼루션 셀(C21 내지 C23)과 디컨볼루션 셀(D21 내지 D23) 및 컨볼루션 LSTM(LS6 내지 LS10) 연산을 포함한다.Referring to FIG. 4 together with FIG. 6, the second sub-network model 2SNM includes operations of convolution cells C21 to C23, deconvolution cells D21 to D23, and convolutional LSTMs LS6 to LS10. .

제2 서브 네트워크 모델(2SNM)은 제1 서브 네트워크 모델(1SNM)로부터 LS1, LS2, LS3 의 상태 정보를 LSTM 의 상태 초기화값으로 입력을 받아서 제2 서브 네트워크 모델(2SNM)의 압축된 입력 프레임들을 상세화하는데 도움을 받을 수 있다.The second sub-network model 2SNM receives the state information of LS1, LS2, and LS3 from the first sub-network model 1SNM as the state initialization value of the LSTM, and receives compressed input frames of the second sub-network model 2SNM. You can help to refine.

상기 프로세서(140)는 특정 시점(T) 이후의 소정 타임 구간(t+1 내지 t+6)의 소정 공간의 실측 특성값을 예측할 수 있다. 구체적으로, 프로세서(140)는 특정 시점(T)의 제1 프레임을 제1 서브 네트워크 모델(1SNM)의 연산을 통해 A't +1을 예측할 수 있다.The processor 140 may predict a measured characteristic value of a predetermined space of a predetermined time interval t + 1 to t + 6 after a specific time point T. In detail, the processor 140 may predict A ′ t +1 based on the calculation of the first sub-network model 1SNM of the first frame of the specific time point T.

프로세서(140)는 A't + 1 프레임을 그대로 입력 프레임으로 하여 제2 서브 네트워크 모델(2SNM)의 연산을 수행하면, A't + 2 프레임이 출력되고, A't + 2 프레임을 그대로 입력 프레임으로 하여 제2 서브 네트워크 모델(2SNM)의 연산을 수행하면, A't + 3 프레임이 출력되고 A't + 3 프레임을 그대로 입력 프레임으로 하여 제2 서브 네트워크 모델(2SNM)의 연산을 수행하면, A't + 4 프레임이 출력되고 A't + 4 프레임을 그대로 입력 프레임으로 하여 제2 서브 네트워크 모델(2SNM)의 연산을 수행하면, A't + 5 프레임이 출력되고 A't + 5 프레임을 그대로 입력 프레임으로 하여 제2 서브 네트워크 모델(2SNM)의 연산을 수행하면, A't+6 프레임이 출력될 수 있다.When the processor 140 performs the operation of the second sub-network model 2SNM with the A ' t + 1 frame as an input frame, the A' t + 2 frame is output and the A ' t + 2 frame is input as it is. When the operation of the second sub network model 2SNM is performed as a frame, the A ' t + 3 frame is output and the operation of the second sub network model 2SNM is performed using the A' t + 3 frame as an input frame. When A ' t + 4 frames are output and A' t + 4 frames are used as input frames, the operation of the second sub-network model 2SNM is performed, and A ' t + 5 frames are output and A' t + When the operation of the second sub-network model 2SNM is performed using five frames as input frames, A ′ t + 6 frames may be output.

살핀 바와 같이, LS8은 제1 서브 네트워크 모델(1SNM)에서 생성된 compressed tensor를 이용하여 프레임 안에 존재하는 객체의 가장 추상화된 정보를 기반으로 예측 프레임의 전체적인 형상을 복원하는 가이드로 활용할 수 있다. LS9는 제1 서브 네트워크 모델(1SNM)의 LS2에서 생성된 compressed tensor 를 이용하여 프레임 안에 존재하는 객체의 부분적인 형상을 확인하면서 이를 기반으로 전체적인 모양을 복원하는 가이드로 활용할 수 있다. LS10은 생성된 compressed tensor 를 이용하여 원본 데이터 내 객체의 지역적인 특성을 복원하고 시간의 흐름에 따른 변화의 양을 좀 더 세밀하게 컨트롤하여 예측 데이터를 생성할 수 있다.As illustrated, the LS8 may be used as a guide for restoring the overall shape of the prediction frame based on the most abstracted information of the objects present in the frame by using the compressed tensor generated in the first sub-network model 1SNM. The LS9 may be used as a guide for restoring the overall shape based on the partial shape of the object existing in the frame by using the compressed tensor generated in LS2 of the first sub network model 1SNM. The LS10 can generate the predicted data by restoring the local characteristics of the objects in the original data and controlling the amount of change over time by using the generated compressed tensor.

이와 같은 방식을 이용할 경우, 출력 프레임이 실제 측정된 특성값에 보다 근접한 예측 특성값이 도출될 수 있다.In this manner, a prediction characteristic value closer to the actual measured characteristic value may be derived.

도 4를 도 7과 함께 참고하면, 제3 서브 네트워크 모델(3SNM)은 컨볼루션 셀(C31 내지 C33)과 디컨볼루션 셀(D31 내지 D33) 및 컨볼루션 LSTM(LS11 내지 LS15) 연산을 포함한다.Referring to FIG. 4 together with FIG. 7, the third sub-network model 3SNM includes operations of convolution cells C31 to C33, deconvolution cells D31 to D33, and convolutional LSTMs LS11 to LS15. .

제3 서브 네트워크 모델(3SNM)은 제1 서브 네트워크 모델(1SNM)로부터 LS1, LS2, LS3 의 상태 정보를 LSTM 의 상태 초기화값으로 입력을 받아서 제3 서브 네트워크 모델(3SNM)의 압축된 입력 프레임들을 상세화하는데 도움을 받을 수 있다. The third sub-network model 3SNM receives the state information of LS1, LS2, and LS3 from the first sub-network model 1SNM as the state initialization value of the LSTM, and receives compressed input frames of the third sub-network model 3SNM. You can help to refine.

제3 서브 네트워크 모델(3SNM)은 애초에 소정 공간의 예측 특성값으로 입력 프레임을 입력받으므로 Wt+1 내지 Wt+6이 특정 시점(T)에 예측될 수 있으며, 해당 Wt+1 내지 Wt+ 6 프레임은 모두 제2 서브 네트워크 모델(2SNM)의 출력 프레임에 각각 대응될 수 있다.Since the third sub-network model 3SNM initially receives an input frame as a prediction characteristic value of a predetermined space, W t + 1 to W t + 6 can be predicted at a specific time T, and corresponding W t + 1 to The W t + 6 frames may correspond to the output frames of the second sub network model 2SNM, respectively.

제3 서브 네트워크 모델(3SNM)의 연산을 수행하면 W't +1 내지 W't + 6 의 예측 특성값이 도출될 수 있으며, W't +1 내지 W't + 6 프레임은 Wt+1 내지 Wt+ 6 프레임의 예측 오차가 제3 서브 네트워크 모델(3SNM)을 통해 보정된 것이다.The third sub-Performing the operations on the network model (3SNM) W 't +1 to W' + t and the predicted characteristic value of 6 can be obtained, W 't +1 to W' t W + 6 frame t + The prediction error of 1 to W t + 6 frames is corrected through the third sub-network model 3SNM.

제3 서브 네트워크 모델(3SNM)은 최종적으로 A't +1 내지 A't + 6 프레임과 W't +1 내지 W't + 6 프레임에 대해 컨볼루션 연산을 수행하여 W't +1 내지 W't + 6 프레임의 특성값이 A't +1 내지 A't + 6 프레임에 반영되는 Ft+1 내지 Ft+ 6 프레임이 최종적으로 산출될 수 있다.The third sub-network model 3SNM finally performs convolution operations on A ' t +1 to A' t + 6 frames and W ' t +1 to W' t + 6 frames to perform W ' t +1 to F t + 1 to F t + 6 frames in which the characteristic values of the W ′ t + 6 frames are reflected in the A ′ t +1 to A ′ t + 6 frames may be finally calculated.

이하에서는 상기 공간 특성값 예측 시스템(100)의 구동 성능을 도 8을 참고하여 설명하기로 한다.Hereinafter, the driving performance of the spatial characteristic value prediction system 100 will be described with reference to FIG. 8.

도 8을 참고하면, X축은 학습반복횟수를 나타내고 Y축은 RMSE 를 나타낸다. 반복횟수는 800 회가량 수행되었으며, RMSE 는 예측값에서 실측값을 뺀 값을 제곱하여 순차적으로 합산한 후, 총 수로 나눈 값의 제곱근으로 표시되는 관측 지표로써, 강수 예측 정보 모델인 WRF 에서 측정된 RMSE(W-rmse)의 오차는 일정하나 본 발명의 일 실시 예에 따른 공간 특성값 예측 시스템을 이용한 RMSE(D_rmse)는 반복횟수가 증가할수록 실측값과 예측값의 편차가 점점 줄어드는 것이 관측될 수 있다.Referring to FIG. 8, the X axis represents the learning repetition frequency and the Y axis represents the RMSE. The number of iterations was about 800 repetitions. RMSE is an observation index that is expressed as the square root of the value divided by the total number after sequential summation of squared values obtained by subtracting the measured value. RMSE measured by the precipitation prediction information model WRF. While the error of (W-rmse) is constant, RMSE (D_rmse) using the spatial characteristic value prediction system according to an embodiment of the present invention can be observed that the deviation between the measured value and the predicted value gradually decreases as the number of repetitions increases.

한편, 프로세서에 의해 수행되는 공간의 특성값 예측 방법은, 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 단계, Meanwhile, in the method for predicting a feature value of a space performed by a processor, at least one first frame including an actual feature value of a predetermined space and at least one second frame including a predicted feature value of the predetermined space are provided at a predetermined time period. Step input,

특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 단계, 및 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 단계를 포함할 수 있다.In the case before a specific point in time T, improving the calculation accuracy of the deep learning model using the measured characteristic value included in the first frame and the predicted characteristic value included in the second frame, and the specific point in time T Subsequently, the method may include predicting a characteristic value included in a frame after the specific time point T using the deep learning model.

또한, 본 발명의 일 실시 예에 따른 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 비일시적 컴퓨터 판독 가능한 기록 매체에서 상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가, 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 동작, 특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 동작, 및 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.In addition, in a non-transitory computer readable recording medium having recorded thereon a program for executing on a computer according to an embodiment of the present invention, when the program is executed by a processor, the program includes a measured characteristic value of a predetermined space. An operation of inputting at least one second frame including at least one first frame and a predicted characteristic value of the predetermined space at a predetermined time period, and before a specific point in time, the measured characteristic value included in the first frame and the Improving operation accuracy of the deep learning model by using prediction characteristic values included in a second frame, and in a case after the specific time point T, using the deep learning model in a frame after the specific time point T And an executable instruction to perform an operation of predicting an included characteristic value.

본 발명의 실시예들은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Embodiments of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.Although the present invention has been described in detail with reference to preferred embodiments, the present invention is not limited to the above-described embodiments, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the following claims. Anyone skilled in the art will have the technical idea of the present invention to the extent that various modifications or changes are possible.

Claims (11)

제1 장치로부터 수집된 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 제1 장치와 다른 제2 장치로부터 수집된 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 입력부; 및
특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키며,
특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 프로세서를 포함하며,
상기 프로세서는,
상기 특정 시점(T)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1)의 제1 프레임으로 출력하고,
출력된 제1 미래 시점(T+1)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하는 것을 소정 타임 구간동안 제N 미래 시점(T+N)까지 반복하며,
상기 소정 타임 구간 동안에 출력된 제1 프레임 각각의 시점에 대응되는 제2 프레임을 입력으로 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1) 내지 제N 미래시점(T+N)의 제2 프레임을 출력하고,
상기 소정 타임 구간에 대응되는 제1 프레임의 특성값을 출력된 상기 제2 프레임에 포함된 예측 특성값에 기초하여 보정하는, 공간의 특성값 예측 장치.
One or more first frames including measured characteristic values of a predetermined space collected from a first device and one or more second frames including predicted characteristic values of the predetermined space collected from a second device different from the first device are predetermined. An input unit input in a time period of; And
Before a specific point in time, the calculation accuracy of the deep learning model is improved by using the measured characteristic values included in the first frame and the predicted characteristic values included in the second frame.
In the case after a specific time point T, the processor includes a processor that predicts a feature value included in a frame after the specific time point T using the deep learning model.
The processor,
The first frame of the specific time point T is input and output to the first frame of the first future time point T + 1 by performing the deep learning model operation.
Outputting the first frame of the first future time point T + 1 as an input to output the first frame of the second future time point T + 2 by performing the operation of the deep learning model during a predetermined time period. Repeat until N future time points (T + N),
The first future time point T + 1 to the Nth future time point T + N by performing the operation of the deep learning model by inputting a second frame corresponding to each time point of each of the first frames output during the predetermined time period. Output the second frame of,
And correct the characteristic value of the first frame corresponding to the predetermined time interval based on the predicted characteristic value included in the output second frame.
삭제delete 제1항에 있어서,
상기 딥러닝 모델은,
제1 서브 네트워크 모델, 상기 제1 서브 네트워크 모델로부터 연산에 관한 정보를 제공받는 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델을 포함하며,
상기 프로세서는,
상기 특정 시점(T) 이전의 실측 특성값을 포함하는 하나 이상의 제1 프레임을 입력 프레임으로 입력받아 상기 제1 서브 네트워크 모델의 연산을 수행하여 출력 프레임을 출력하고, 상기 출력 프레임과 상기 입력 프레임을 비교하여 상기 제1 서브 네트워크 모델의 연산 정확도를 향상시키는, 공간의 특성값 예측 장치.
The method of claim 1,
The deep learning model,
A first sub-network model, a second sub-network model and a third sub-network model that are provided with information about the operation from the first sub-network model,
The processor,
Receives one or more first frames including the measured characteristic value before the specific time point T as an input frame, performs an operation of the first sub-network model, and outputs an output frame, and outputs the output frame and the input frame. And a comparison property of the first sub-network model to improve the calculation accuracy.
제3항에 있어서,
상기 프로세서는,
상기 특정 시점(T)의 실측 특성값을 포함하는 제1 프레임을 상기 제1 서브 네트워크 모델의 연산을 수행하여 제1 미래 시점(T+1)의 제1 프레임을 출력하고, 출력된 제1 미래 시점(T+1)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하며, 출력된 제2 미래 시점(T+2)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제3 미래 시점(T+3)의 제1 프레임으로 출력하며, 출력된 제3 미래 시점(T+3)의 제1 프레임을 상기 제2 서브 네트워크 모델의 연산에 의해 제4 미래 시점(T+4)의 제1 프레임으로 출력하는 것을 상기 소정 타임 구간동안 상기 제N 미래 시점(T+N)까지 반복하는, 공간의 특성값 예측 장치.
The method of claim 3,
The processor,
The first frame including the measured characteristic value of the specific time point T is calculated by performing the operation of the first sub-network model to output the first frame of the first future time point T + 1, and the outputted first future time. The first frame of the time point T + 1 is output to the first frame of the second future time point T + 2 by the operation of the second sub-network model, and the output of the second future time point T + 2 is output. The first frame is output to the first frame of the third future time point T + 3 by the operation of the second sub-network model, and the outputted first frame of the third future time point T + 3 is output to the second frame. And outputting the first frame at the fourth future time point (T + 4) by the calculation of the sub network model to the Nth future time point (T + N) during the predetermined time period.
제4항에 있어서,
상기 프로세서는,
상기 소정 타임 구간 동안의 제1 미래시점(T+1) 내지 제N 미래시점(T+N)에 출력된 제1 프레임 각각에 대응되는 제2 프레임을 상기 제3 서브 네트워크 모델의 입력으로 하여, 제3 서브 네트워크 모델의 연산을 수행하고, 출력된 제2 프레임의 예측 특성값에 기초하여 제1 프레임의 특성값을 보정하는, 공간의 특성값 예측 장치.
The method of claim 4, wherein
The processor,
A second frame corresponding to each of the first frames output from the first future time point T + 1 to the Nth future time point T + N during the predetermined time period is used as an input of the third sub network model. And calculating a third sub-network model and correcting the characteristic value of the first frame based on the output characteristic value of the second frame.
제5항에 있어서,
상기 제1 서브 네트워크 모델, 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델은 상기 프레임에 포함된 특성값을 추상화 정보로 압축하는 복수의 컴프레션(Compression) 레이어를 포함하며, 추상화 정보를 프레임에 포함된 특성값으로 압축을 푸는 복수의 디컴프레션(Decompression) 레이어를 포함하는, 공간의 특성값 예측 장치.
The method of claim 5,
The first sub-network model, the second sub-network model and the third sub-network model include a plurality of compression layers for compressing characteristic values included in the frame into abstraction information, and the abstraction information is included in the frame. A spatial characteristic value prediction apparatus comprising a plurality of decompression layers decompressed with characteristic values.
제6항에 있어서,
상기 프로세서는,
상기 제1 서브 네트워크 모델의 컴프레션 레이어에 포함된 특정 상태값을, 상기 제1 서브 네트워크 모델의 컴프레션 레이어에 대응되는 상기 제2 서브 네트워크 모델 및 제3 서브 네트워크 모델의 디컴프레션 레이어로 제공하는, 공간의 특성값 예측 장치.
The method of claim 6,
The processor,
Providing a specific state value included in the compression layer of the first sub network model to the decompression layers of the second sub network model and the third sub network model corresponding to the compression layer of the first sub network model. Characteristic prediction device of the.
제1항에 있어서,
상기 소정 공간은 복수의 영역으로 분할되고,
상기 프로세서는,
상기 분할된 영역 중 일부 이상의 분할 영역에 대한 실측 특성값을 타임순으로 수집하고, 상기 실측 특성값이 수집된 분할 영역 및 상기 실측 특성값이 수집되지 않은 분할 영역에 대한 예측 특성값을 타임순으로 수집하는, 공간의 특성값 예측 장치.
The method of claim 1,
The predetermined space is divided into a plurality of regions,
The processor,
Collects measured characteristic values of at least a portion of the divided regions in chronological order, and predicts characteristic values of the divided region in which the measured characteristic values are collected and the divided regions in which the measured characteristic values are not collected in chronological order. Collecting, the characteristic value prediction apparatus of space.
제1항에 있어서,
상기 실측 특성값 및 예측 특성값은 상기 소정 공간의 강수 정보를 나타내는 수치인, 공간의 특성값 예측 장치.
The method of claim 1,
And the measured characteristic value and the predicted characteristic value are numerical values representing precipitation information of the predetermined space.
프로세서에 의해 수행되는 공간의 특성값 예측 방법으로,
제1 장치로부터 수집된 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 제1 장치와 다른 제2 장치로부터 수집된 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 단계;
특정 시점(T) 이전의 경우, 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 단계; 및
특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 단계를 포함하며,
상기 프로세서는,
상기 특정 시점(T)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1)의 제1 프레임으로 출력하고,
출력된 제1 미래 시점(T+1)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하는 것을 소정 타임 구간동안 제N 미래 시점(T+N)까지 반복하며,
상기 소정 타임 구간 동안에 출력된 제1 프레임 각각의 시점에 대응되는 제2 프레임을 입력으로 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1) 내지 제N 미래시점(T+N)의 제2 프레임을 출력하고,
상기 소정 타임 구간에 대응되는 제1 프레임의 특성값을 출력된 상기 제2 프레임에 포함된 예측 특성값에 기초하여 보정하는, 공간의 특성값 예측 방법.
A method of predicting a characteristic value of a space performed by a processor.
One or more first frames including measured characteristic values of a predetermined space collected from a first device and one or more second frames including predicted characteristic values of the predetermined space collected from a second device different from the first device are predetermined. Inputting at a time period of;
Before a specific point in time, improving a computational accuracy of the deep learning model using the measured characteristic values included in the first frame and the predicted characteristic values included in the second frame; And
After the specific time point T, using the deep learning model, predicting a characteristic value included in a frame after the specific time point T;
The processor,
The first frame of the specific time point T is input and output to the first frame of the first future time point T + 1 by performing the deep learning model operation.
Outputting the first frame of the first future time point T + 1 as an input to output the first frame of the second future time point T + 2 by performing the operation of the deep learning model during a predetermined time period. Repeat until N future time points (T + N),
The first future time point T + 1 to the Nth future time point T + N by performing the operation of the deep learning model by inputting a second frame corresponding to each time point of each of the first frames output during the predetermined time period. Output the second frame of,
And correcting the characteristic value of the first frame corresponding to the predetermined time interval based on the predicted characteristic value included in the outputted second frame.
컴퓨터 상에서 수행하기 위한 프로그램을 기록한 비일시적 컴퓨터 판독 가능한 기록 매체에서 상기 프로그램은, 프로세서에 의한 실행 시,
상기 프로세서가, 제1 장치로부터 수집된 소정 공간의 실측 특성값을 포함하는 하나 이상의 제1 프레임 및 상기 제1 장치와 다른 제2 장치로부터 수집된 상기 소정 공간의 예측 특성값을 포함하는 하나 이상의 제2 프레임이 소정의 타임 주기로 입력되는 동작, 특정 시점(T) 이전의 경우 상기 제1 프레임에 포함된 실측 특성값 및 상기 제2 프레임에 포함된 예측 특성값을 이용하여 딥러닝 모델의 연산 정확도를 향상시키는 동작 및 특정 시점(T) 이후의 경우, 상기 딥러닝 모델을 이용하여 상기 특정 시점(T) 이후의 프레임에 포함된 특성값을 예측하는 동작을 수행하도록 하는 실행 가능한 명령을 포함하며,
상기 프로세서는,
상기 특정 시점(T)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1)의 제1 프레임으로 출력하고,
출력된 제1 미래 시점(T+1)의 제1 프레임을 입력으로 하여 상기 딥러닝 모델의 연산 수행에 의해 제2 미래 시점(T+2)의 제1 프레임으로 출력하는 것을 소정 타임 구간동안 제N 미래 시점(T+N)까지 반복하며,
상기 소정 타임 구간 동안에 출력된 제1 프레임 각각의 시점에 대응되는 제2 프레임을 입력으로 상기 딥러닝 모델의 연산 수행에 의해 제1 미래 시점(T+1) 내지 제N 미래시점(T+N)의 제2 프레임을 출력하고,
상기 소정 타임 구간에 대응되는 제1 프레임의 특성값을 출력된 상기 제2 프레임에 포함된 예측 특성값에 기초하여 보정하는, 비일시적 컴퓨터 판독 가능한 기록 매체.


In a non-transitory computer readable recording medium having recorded thereon a program for execution on a computer, the program, when executed by a processor,
The processor may include one or more first frames including measured characteristic values of a predetermined space collected from a first apparatus and one or more first predicted characteristic values of the predetermined space collected from a second apparatus different from the first apparatus. The operation accuracy of the deep learning model is calculated using an operation in which two frames are input at a predetermined time period, and a measurement characteristic value included in the first frame and a prediction characteristic value included in the second frame before a specific point in time. And an executable instruction for performing an operation of improving and predicting a characteristic value included in a frame after the specific time point T using the deep learning model.
The processor,
The first frame of the specific time point T is input and output to the first frame of the first future time point T + 1 by performing the deep learning model operation.
Outputting the first frame of the first future time point T + 1 as an input to output the first frame of the second future time point T + 2 by performing the operation of the deep learning model during a predetermined time period. Repeat until N future time points (T + N),
The first future time point T + 1 to the Nth future time point T + N by performing the operation of the deep learning model by inputting a second frame corresponding to each time point of each of the first frames output during the predetermined time period. Output the second frame of,
And correct the characteristic value of the first frame corresponding to the predetermined time interval based on the predicted characteristic value included in the output second frame.


KR1020180129272A 2018-10-26 2018-10-26 Method and system for predicting characteristic value of space KR101969716B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180129272A KR101969716B1 (en) 2018-10-26 2018-10-26 Method and system for predicting characteristic value of space
PCT/KR2019/012477 WO2020085661A1 (en) 2018-10-26 2019-09-25 Method for predicting deep neural network-based spatial characteristic value, and system applying same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180129272A KR101969716B1 (en) 2018-10-26 2018-10-26 Method and system for predicting characteristic value of space

Publications (1)

Publication Number Publication Date
KR101969716B1 true KR101969716B1 (en) 2019-08-13

Family

ID=67624290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180129272A KR101969716B1 (en) 2018-10-26 2018-10-26 Method and system for predicting characteristic value of space

Country Status (2)

Country Link
KR (1) KR101969716B1 (en)
WO (1) WO2020085661A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085661A1 (en) * 2018-10-26 2020-04-30 한국과학기술정보연구원 Method for predicting deep neural network-based spatial characteristic value, and system applying same
KR102253736B1 (en) * 2019-11-26 2021-05-20 주식회사 비엠티 Electric power demand prediction method for recursive type using artificial neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092403A (en) 2003-04-24 2004-11-03 오재호 System and method for processing weather data in a realtime

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101802455B1 (en) * 2016-11-16 2017-11-28 한국외국어대학교 연구산학협력단 System for estimating reainfild according to spatial-scale of rainfall and method thereof
KR101761686B1 (en) * 2017-03-31 2017-07-31 (주)하모니앤유나이티드 Real time predicting system for energy management system using machine learning
KR101969716B1 (en) * 2018-10-26 2019-08-13 한국과학기술정보연구원 Method and system for predicting characteristic value of space

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092403A (en) 2003-04-24 2004-11-03 오재호 System and method for processing weather data in a realtime

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Elsayed, Nelly, Anthony S. Maida, and Magdy Bayoumi. Reduced-Gate Convolutional LSTM Using Predictive Coding for Spatiotemporal Prediction. arXiv preprint arXiv:1810.07251v1, 2018.10.16.* *
Shi, Xingjian, et al. Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting. arXiv preprint arXiv:1506.04214, 2015.* *
Yuan, Zhuoning, Xun Zhou, and Tianbao Yang. Hetero-ConvLSTM: A Deep Learning Approach to Traffic Accident Prediction on Heterogeneous Spatio-Temporal Data. KDD 2018. ACM, 2018.8.23.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085661A1 (en) * 2018-10-26 2020-04-30 한국과학기술정보연구원 Method for predicting deep neural network-based spatial characteristic value, and system applying same
KR102253736B1 (en) * 2019-11-26 2021-05-20 주식회사 비엠티 Electric power demand prediction method for recursive type using artificial neural network

Also Published As

Publication number Publication date
WO2020085661A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
US11231522B2 (en) Methods and systems for climate forecasting using artificial neural networks
US11835677B2 (en) Systems and methods for selecting global climate simulation models for training neural network climate forecasting models
US11714937B2 (en) Estimating physical parameters of a physical system based on a spatial-temporal emulator
JP6635038B2 (en) Simulation apparatus, simulation method, and storage medium
US11593611B2 (en) Neural network cooperation
Engelbrecht et al. Multi-scale climate modelling over Southern Africa using a variable-resolution global model
US11720727B2 (en) Method and system for increasing the resolution of physical gridded data
US11340603B2 (en) Behavior monitoring using convolutional data modeling
KR101969716B1 (en) Method and system for predicting characteristic value of space
UA123863C2 (en) Computer-based representation of precipitation
US20200151545A1 (en) Update of attenuation coefficient for a model corresponding to time-series input data
US20180144266A1 (en) Learning apparatus and method for learning a model corresponding to real number time-series input data
CN111950810A (en) Multivariable time sequence prediction method and device based on self-evolution pre-training
WO2014117659A1 (en) Predicting a generated power of a photovoltaic power generation device
CN117293809A (en) Multi-time space scale new energy generation power prediction method based on large model
US12020129B2 (en) Learning with moment estimation using different time constants
KR102386532B1 (en) Methods for learning and testing a multi-layer perceptron based marine environment information correction model for correcting marine environment information using wave prediction information and devices using the same
EP4315195A1 (en) Predicting damage caused by fungal infection relating to crop plants of a particular species
CN112529315B (en) Landslide prediction method, landslide prediction device, landslide prediction equipment and storage medium
Kannan et al. Forecasting soil moisture using a deep learning model integrated with passive microwave retrieval
CN117033352B (en) Data restoration method and device, terminal equipment and storage medium
US12032117B2 (en) Weather/climate model forecast bias explainability
Rueckauer et al. Linear approximation of deep neural networks for efficient inference on video data
US20240370016A1 (en) Augmented learning model for autonomous earth-moving vehicles
WO2023116242A1 (en) Temporal interpolation of precipitation