KR102268104B1 - Method of predicting load and apparatus thereof - Google Patents

Method of predicting load and apparatus thereof Download PDF

Info

Publication number
KR102268104B1
KR102268104B1 KR1020200090542A KR20200090542A KR102268104B1 KR 102268104 B1 KR102268104 B1 KR 102268104B1 KR 1020200090542 A KR1020200090542 A KR 1020200090542A KR 20200090542 A KR20200090542 A KR 20200090542A KR 102268104 B1 KR102268104 B1 KR 102268104B1
Authority
KR
South Korea
Prior art keywords
data
neural network
artificial neural
output data
time
Prior art date
Application number
KR1020200090542A
Other languages
Korean (ko)
Inventor
장영민
반부이
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Application granted granted Critical
Publication of KR102268104B1 publication Critical patent/KR102268104B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J3/00Circuit arrangements for ac mains or ac distribution networks
    • H02J3/003Load forecast, e.g. methods or systems for forecasting future load demand

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

A load prediction method and a device thereof are disclosed. According to an embodiment of the present invention, the load prediction method comprises the following steps of: receiving first input data obtained by dividing the entire power data for every first period; receiving second input data obtained by dividing the entire power data for every second period; generating first output data by inputting the first input data into a first artificial neural network; generating second output data by inputting the second input data to a second artificial neural network; and estimating a load by processing the first output data and the second output data. Therefore, the load prediction method predicts a power load by using an artificial neural network.

Description

부하 예측 방법 및 장치{METHOD OF PREDICTING LOAD AND APPARATUS THEREOF}Load prediction method and apparatus {METHOD OF PREDICTING LOAD AND APPARATUS THEREOF}

본 발명은 부하 예측 방법 및 장치에 관한 것으로, 더욱 상세하게는 인공 신경망을 이용한 부하 예측 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for predicting a load, and more particularly, to a method and apparatus for predicting a load using an artificial neural network.

기존의 공급 중심에서 수요와 관리, 그리고 서비스로 이어지는 에너지 정책이 대두되면서, 스마트 그리드(smart grid) 즉, 지능형 전력망을 포함한 스마트 에코(smart eco) 등의 에너지 관리와 절약이 강조되고 있는 실정이다. 전력 계통 운영자는 스마트 그리드를 통해 전력 수용가의 전력 사용 패턴을 분석할 수 있고, 이를 기초로 전력 수용가의 전력 사용 패턴의 변화를 유도할 수 있다. 이를 통해, 전력 계통 운영자는 피크 수요 절감 및 전력계통 운영의 안정화를 도모할 수 있고, 전력 수용가에 의한 불필요한 전력 사용을 줄일 수 있다.As energy policies that lead from supply-oriented to demand, management, and service are emerging, energy management and saving such as a smart grid, that is, a smart eco, including an intelligent power grid, are being emphasized. The power grid operator may analyze the power consumption pattern of the power consumer through the smart grid, and may induce a change in the power consumer's power usage pattern based on this. Through this, the power system operator can reduce peak demand and stabilize the power system operation, and can reduce unnecessary power use by power consumers.

한편, 전력 계통 운영 기관에서는 여러 상황의 전력 수용가를 대상으로 한 다양한 에너지 관리 시스템들이 개발되고 있다. 최근 에너지의 효율적인 사용을 위하여 도입된 에너지관리시스템(Energy Management System, EMS)을 통하여 소규모 부하뿐만 아니라, 중규모 및 대규모 부하에서도 안정적이고 경제적인 부하 운용 및 전력 수급을 위해 부하의 정확한 수요 예측이 요구될 수 있다.Meanwhile, various energy management systems for power consumers in various situations are being developed in power system operating organizations. Through the Energy Management System (EMS), which was recently introduced for efficient use of energy, accurate demand prediction of loads is required for stable and economical load operation and power supply not only in small loads, but also in medium and large loads. can

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 인공 신경망을 이용하여 전력 부하를 예측하는 부하 예측 방법 및 장치를 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a load prediction method and apparatus for predicting a power load using an artificial neural network.

상기와 같은 문제점을 해결하기 위한 본 발명의 일 실시예에 따른, 부하 예측 방법은 전체 전력 데이터를 제1 주기마다 분할한 제1 입력 데이터를 수신하는 단계, 상기 전체 전력 데이터를 제2 주기마다 분할한 제2 입력 데이터를 수신하는 단계, 상기 제1 입력 데이터를 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하는 단계, 상기 제2 입력 데이터를 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하는 단계 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함할 수 있다.According to an embodiment of the present invention for solving the above problems, the load prediction method includes the steps of receiving first input data obtained by dividing total power data for each first period, and dividing the total power data for each second period receiving the second input data; inputting the first input data to a first artificial neural network to generate first output data; and inputting the second input data to a second artificial neural network to generate second output data It may include generating and predicting a load by performing processing on the first output data and the second output data.

여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)일 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be a Long Short Term Memory Network (LSTM).

여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 미리 학습이 수행될 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be previously trained.

여기서, 상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함할 수 있다.Here, the first input data may include power data between time A to A+F, and the first output data may include a load prediction value for time A+F+1.

여기서, 상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함할 수 있다.Here, the second input data includes power data between A+(M-1)*G and A+M*G time, and the second output data is a load prediction value of A+M*G+1 time. may include

여기서, 상기 부하를 예측하는 단계는, A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하는 단계를 포함할 수 있다.Here, in the predicting of the load, the first output data including the load predicted value of A+F+1 time and the second output data including the load predicted value of A+M*G+1 time and estimating the load of the A+F+1 time by performing a process for the A+F+1.

여기서, 상기 부하를 예측하는 단계는, 미리 기계 학습이 수행된 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함할 수 있다.Here, the predicting of the load may include predicting the load by performing, by the server, on which machine learning is performed in advance, processing on the first output data and the second output data.

여기서, 상기 기계 학습은, 로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행될 수 있다.Here, the machine learning may be performed based on a logistic regression algorithm.

여기서, 상기 기계 학습은, 상기 기계 학습에 대한 학습 모델을 생성하는 단계, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하는 단계 및 상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하는 단계를 통해 수행될 수 있다.Here, in the machine learning, generating a learning model for the machine learning, generating learning data based on the first output data and the second output data, and the learning model based on the learning data This may be performed through the step of changing the weight.

여기서, 상기 학습 모델은, 아래의 수학식을 포함하고,Here, the learning model includes the following equation,

Figure 112020076154537-pat00001
Figure 112020076154537-pat00001

여기에서, p는 확률 함수이고, 상기b는 미리 설정된 값이며,

Figure 112020076154537-pat00002
는 미리 설정된 값이고,
Figure 112020076154537-pat00003
는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며,
Figure 112020076154537-pat00004
는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고,
Figure 112020076154537-pat00005
Figure 112020076154537-pat00006
에 대한 가중치이며,
Figure 112020076154537-pat00007
Figure 112020076154537-pat00008
에 대한 가중치일 수 있다.Here, p is a probability function, b is a preset value,
Figure 112020076154537-pat00002
is a preset value,
Figure 112020076154537-pat00003
is data corresponding to the first output data among the learning data,
Figure 112020076154537-pat00004
is data corresponding to the second output data among the learning data,
Figure 112020076154537-pat00005
is
Figure 112020076154537-pat00006
is the weight for
Figure 112020076154537-pat00007
is
Figure 112020076154537-pat00008
may be a weight for .

본 발명의 다른 실시예에 따른 부하 예측 장치는 프로세서(processor), 상기 프로세서에 의해 실행되는 하나 이상의 명령들이 저장된 메모리(memory) 및 제1 인공 신경망, 제2 인공 신경망 및 서버를 포함할 수 있고, 상기 하나 이상의 명령들은, 전체 전력 데이터를 제1 주기마다 분할한 제1 입력 데이터를 수신하고, 상기 전체 전력 데이터를 제2 주기마다 분할한 제2 입력 데이터를 수신하고,A load prediction apparatus according to another embodiment of the present invention may include a processor, a memory in which one or more instructions executed by the processor are stored, and a first artificial neural network, a second artificial neural network, and a server, The one or more commands receive first input data obtained by dividing the total power data for every first period, receiving second input data obtained by dividing the total power data for every second period,

상기 제1 입력 데이터를 상기 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하고, 상기 제2 입력 데이터를 상기 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하고 그리고, 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행될 수 있다.inputting the first input data to the first artificial neural network to generate first output data, inputting the second input data to the second artificial neural network to generate second output data, and the first output data and performing processing on the second output data to predict a load.

여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)일 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be a Long Short Term Memory Network (LSTM).

여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은, 미리 학습이 수행될 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be pre-learning.

여기서, 상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함할 수 있다.Here, the first input data may include power data between time A to A+F, and the first output data may include a load prediction value for time A+F+1.

여기서, 상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함할 수 있다.Here, the second input data includes power data between A+(M-1)*G and A+M*G time, and the second output data is a load prediction value of A+M*G+1 time. may include

여기서, 상기 부하를 예측하는 경우, 상기 하나 이상의 명령들은, A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하도록 실행될 수 있다.Here, when predicting the load, the one or more commands may include the first output data including the load prediction value of A+F+1 time and the load prediction value of A+M*G+1 time. It may be executed to estimate the load of the A+F+1 time by performing processing on the second output data.

여기서, 상기 부하를 예측하는 경우, 상기 하나 이상의 명령은, 미리 기계 학습이 수행된 상기 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행될 수 있다.Here, when predicting the load, the one or more commands may be executed so that the server, on which machine learning has been performed in advance, performs processing on the first output data and the second output data to predict the load.

여기서, 상기 기계 학습은, 로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행될 수 있다.Here, the machine learning may be performed based on a logistic regression algorithm.

여기서, 상기 기계 학습을 수행하는 경우, 상기 하나 이상의 명령들은,Here, when performing the machine learning, the one or more instructions are

상기 기계 학습에 대한 학습 모델을 생성하고, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하고 그리고, 상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하도록 실행될 수 있다.generating a learning model for the machine learning, generating learning data based on the first output data and the second output data, and changing a weight of the learning model based on the learning data.

여기서, 상기 학습 모델은, 아래의 수학식을 포함하고,Here, the learning model includes the following equation,

Figure 112020076154537-pat00009
Figure 112020076154537-pat00009

여기에서, p는 확률 함수이고, 상기b는 미리 설정된 값이며,

Figure 112020076154537-pat00010
는 미리 설정된 값이고,
Figure 112020076154537-pat00011
는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며,
Figure 112020076154537-pat00012
는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고,
Figure 112020076154537-pat00013
Figure 112020076154537-pat00014
에 대한 가중치이며,
Figure 112020076154537-pat00015
Figure 112020076154537-pat00016
에 대한 가중치일 수 있다.Here, p is a probability function, b is a preset value,
Figure 112020076154537-pat00010
is a preset value,
Figure 112020076154537-pat00011
is data corresponding to the first output data among the learning data,
Figure 112020076154537-pat00012
is data corresponding to the second output data among the learning data,
Figure 112020076154537-pat00013
is
Figure 112020076154537-pat00014
is the weight for
Figure 112020076154537-pat00015
is
Figure 112020076154537-pat00016
may be a weight for .

본 발명에 의하면, 서로 다른 주기를 기초로 생성한 전력 데이터들을 기초로 부하를 예측하는 바, 정확한 부하 예측이 가능할 수 있다.According to the present invention, since the load is predicted based on the power data generated based on different periods, it is possible to accurately predict the load.

본 발명에 의하면 복수의 인공 신경망들은 기초로 부하를 예측하는 바 실시간으로 부하 예측이 가능할 수 있다.According to the present invention, a plurality of artificial neural networks may predict the load based on the load prediction in real time.

또한, 본 발명에 의하면 복수의 LSTM(Long Short Term Memory Network)를 기초로 출력 값을 생성하고 회귀 분석 알고리즘을 통해 출력 값에 대한 처리를 수행하여 부하를 예측 하는 바, 정확한 부하 예측이 가능할 수 있다.In addition, according to the present invention, an output value is generated based on a plurality of LSTMs (Long Short Term Memory Network) and the output value is processed through a regression analysis algorithm to predict the load, so accurate load prediction is possible. .

도 1은 본 발명의 일 실시예에 따른 전력 계통 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 전력 제어 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 부하 예측부의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공 신경망의 개념도이다.
도 5는 본 발명의 일 실시예에 따른 인공 신경망을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 인공 신경망 학습 방법의 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 기계 학습 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 부하 예측 방법의 흐름도이다.
도 9는 본 발명의 다른 실시예에 따른 전력 제어 장치의 블록도이다.
1 is a conceptual diagram of a power grid system according to an embodiment of the present invention.
2 is a block diagram of a power control apparatus according to an embodiment of the present invention.
3 is a block diagram of a load predictor according to an embodiment of the present invention.
4 is a conceptual diagram of an artificial neural network according to an embodiment of the present invention.
5 is a conceptual diagram for explaining an artificial neural network according to an embodiment of the present invention.
6 is a flowchart of an artificial neural network learning method according to an embodiment of the present invention.
7 is a flowchart of a machine learning method according to an embodiment of the present invention.
8 is a flowchart of a load prediction method according to an embodiment of the present invention.
9 is a block diagram of a power control apparatus according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 전력 시스템의 개념도이다.1 is a conceptual diagram of a power system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 전력 시스템은 전력 생산 장치(110), 수용가(120) 및 전력 제어 장치(130)를 포함할 수 있다. 도면에는 전력 생산 장치(110) 및 전력 제어 장치(130)가 별개인 것으로 도시되었으나, 전력 생산 장치(110) 및 전력 제어 장치(130)는 하나의 장치에 포함될 수 있다. 전력 생산 장치(110)는 전력을 생산하여 수용가(120)에 공급할 수 있다. Referring to FIG. 1 , a power system according to an embodiment of the present invention may include a power generating device 110 , a consumer 120 , and a power control device 130 . Although the drawing shows that the power generating device 110 and the power control device 130 are separate, the power generating device 110 and the power control device 130 may be included in one device. The power generating device 110 may generate power and supply it to the consumers 120 .

수용가(120)는 전력을 전력 생산 장치(110)로부터 공급받아 소비할 수 있다. 도면에는 하나의 수용가(120)만을 도시하였으나, 이는 일 예시일 뿐이며 수용가(120)는 복수일 수 있다. 예를 들어, 수용가(120)는 가정, 빌딩 및 공장 등을 포함할 수 있으나, 이에 한정하지 아니한다. 수용가(120)는 소비 전력에 대한 정보를 전력 제어 장치(130)에 전송할 수 있다.The consumer 120 may consume power by receiving power from the power generating device 110 . Although only one consumer 120 is illustrated in the drawing, this is only an example and the number of consumers 120 may be plural. For example, the consumer 120 may include a home, a building, a factory, etc., but is not limited thereto. The consumer 120 may transmit information on power consumption to the power control device 130 .

전력 제어 장치(130) 소비 전력에 대한 정보를 수용가(120)로부터 수신할 수 있다. 전력 제어 장치(130)는 소비 전력에 대한 정보를 기초로 부하를 예측할 수 있다. 부하는 수용가(120)의 전력 부하일 수 있다. 한편, 전력 제어 장치(130)는 다음과 같이 구성될 수 있다.The power control device 130 may receive information on power consumption from the consumer 120 . The power control device 130 may predict a load based on information on power consumption. The load may be a power load of the consumer 120 . Meanwhile, the power control device 130 may be configured as follows.

도 2는 본 발명의 일 실시예에 따른 전력 제어 장치의 블록도이다.2 is a block diagram of a power control apparatus according to an embodiment of the present invention.

도 2를 참조하면 전력 제어 장치(200)는 전력 데이터 생성부(210) 및 부하 예측부(220) 및 제어부(230)를 포함할 수 있다. 전력 데이터 생성부(210)는 소비 전력에 대한 정보를 기초로 전체 전력 데이터를 생성할 수 있다. 전력 데이터 생성부(210)는 소비 전력에 대한 정보를 시계열적으로 정렬하여 전체 전력 데이터를 생성할 수 있다.Referring to FIG. 2 , the power control apparatus 200 may include a power data generation unit 210 , a load prediction unit 220 , and a control unit 230 . The power data generator 210 may generate total power data based on information on power consumption. The power data generator 210 may generate total power data by arranging information on power consumption in time series.

전력 데이터 생성부(210)는 전체 전력 데이터에 대한 전처리를 수행하여 제1 입력 데이터들 및 제2 입력 데이터들을 생성할 수 있다. 예를 들어, 전력 데이터 생성부(210)는 전체 전력 데이터를 제1 주기마다 분할하여 제1 입력 데이터들을 생성할 수 있다. 예를 들어, 제1 주기는 F일 수 있고, F는 168시간(1주일)일 수 있다. 제1 입력 데이터는 전체 전력 데이터 중 A 및 A+F 시간 사이의 전력 데이터를 포함할 수 있다.The power data generator 210 may perform preprocessing on the entire power data to generate first input data and second input data. For example, the power data generator 210 may generate the first input data by dividing the entire power data every first period. For example, the first period may be F, and F may be 168 hours (one week). The first input data may include power data between times A and A+F among all power data.

전력 데이터 생성부(210)는 전체 전력 데이터를 제2 주기마다 분할하여 제2 입력 데이터들을 생성할 수 있다. 예를 들어, 제2 주기는 G일 수 있고, G는 6일 수 있다. 제2 입력 데이터는 전체 전력 데이터 중 A+(M-1)*G 및 A+M*G시간 사이의 전력 데이터를 포함할 수 있다. 제1 입력 데이터가 A 및 A+168 시간 사이의 전력 데이터를 포함하고 G가 6인 경우, M은 0 내지 27일 수 있다.The power data generator 210 may generate second input data by dividing the entire power data every second period. For example, the second period may be G, and G may be 6. The second input data may include power data between A+(M−1)*G and A+M*G times among all power data. When the first input data includes power data between A and A+168 hours and G is 6, M may be 0 to 27.

부하 예측부(220)는 제1 입력 데이터들 및 제2 입력 데이터들을 전력 데이터 생성부(210)로부터 수신할 수 있다. 부하 예측부(220)는 제1 입력 데이터들 및 제2 입력 데이터들을 기초로 부하를 예측할 수 있다. 부하 예측부(220)는 다음과 같이 구성될 수 있다.The load predictor 220 may receive the first input data and the second input data from the power data generator 210 . The load predictor 220 may predict a load based on the first input data and the second input data. The load predictor 220 may be configured as follows.

도 3은 본 발명의 일 실시예에 따른 부하 예측부의 블록도이다.3 is a block diagram of a load predictor according to an embodiment of the present invention.

도 3을 참조하면, 부하 예측부(300)는 도 2의 부하 예측부(220)와 동일하거나 유사하게 구성될 수 있다. 부하 예측부(300)는 제1 인공 신경망(310), 제2 인공 신경망(320), 후처리부(330)를 포함할 수 있다. 제1 인공 신경망(310) 및 제2 인공 신경망(330)은 LSTM(Long Short Term Memory network)일 수 있고, 후처리부(330)는 서버(server)일 수 있다.Referring to FIG. 3 , the load predicting unit 300 may be configured the same as or similarly to the load predicting unit 220 of FIG. 2 . The load prediction unit 300 may include a first artificial neural network 310 , a second artificial neural network 320 , and a post-processing unit 330 . The first artificial neural network 310 and the second artificial neural network 330 may be a long short term memory network (LSTM), and the post-processing unit 330 may be a server.

제1 인공 신경망(310)은 제1 입력 데이터 중 하나를 기초로 제1 출력 데이터를 생성할 수 있다. 또한, 제2 인공 신경망(320)은 제2 입력 데이터 중 하나를 기초로 제2 출력 데이터를 생성할 수 있다. 제1 인공 신경망(310) 및 제2 인공 신경망(320)은 다음과 같이 구성될 수 있다.The first artificial neural network 310 may generate first output data based on one of the first input data. Also, the second artificial neural network 320 may generate second output data based on one of the second input data. The first artificial neural network 310 and the second artificial neural network 320 may be configured as follows.

도 4는 본 발명의 일 실시예에 따른 인공 신경망의 개념도이다.4 is a conceptual diagram of an artificial neural network according to an embodiment of the present invention.

도 4를 참조하면, 인공 신경망(400)은 도 3의 제1 인공 신경망(310) 및 제2 인공 신경망(320) 중 하나 일 수 있다. 인공 신경망(400)은 복수의 입력 레이어들(411 내지 413), 복수의 히든 레이어들(421 내지 423) 및 출력 레이어(431)를 포함할 수 있다.Referring to FIG. 4 , the artificial neural network 400 may be one of the first artificial neural network 310 and the second artificial neural network 320 of FIG. 3 . The artificial neural network 400 may include a plurality of input layers 411 to 413 , a plurality of hidden layers 421 to 423 , and an output layer 431 .

제1 입력 레이어(411)는 제1 히든 레이어(421)와 연결될 수 있고, 제2 입력 레이어(412)는 제2 히든 레이어(422)와 연결될 수 있으며, 제N 입력 레이어(413)은 제N 히든 레이어(423)와 연결될 수 있다. 또한, 제N 히든 레이어(423)는 출력 레이어(431)와 연결될 수 있다. 인공 신경망(400)이 도 3의 제1 인공 신경망(310)인 경우, N은 F일 수 있고, F는 168일 수 있다. 도 3의 제2 인공 신경망(320)인 경우 N은 G일 수 있고, G는 6일 수 있다.The first input layer 411 may be connected to the first hidden layer 421 , the second input layer 412 may be connected to the second hidden layer 422 , and the Nth input layer 413 may be an Nth It may be connected to the hidden layer 423 . Also, the N-th hidden layer 423 may be connected to the output layer 431 . When the artificial neural network 400 is the first artificial neural network 310 of FIG. 3 , N may be F, and F may be 168. In the case of the second artificial neural network 320 of FIG. 3 , N may be G, and G may be 6.

복수의 입력 레이어들(411 내지 413)은 입력 데이터 중 일부를 데이터 생성부(예를 들어, 도 2의 데이터 생성부(210))로부터 수신할 수 있다. 인공 신경망(400)이 도 3의 제1 인공 신경망(310)인 경우 복수의 입력 레이어들(411 내지 413) 각각은 제1 입력 데이터 중 일부를 수신할 수 있다. 제1 입력 레이어(411)는 제1 입력 데이터 중 일부인 제1 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있고, 제2 입력 레이어(412)는 제1 입력 데이터 중 일부인 제2 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있으며, 제N 입력 레이어(413)는 제1 입력 데이터 중 일부인 제N 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있다. 여기에서, 제1 시간 전력 데이터는 A 및 A+1 시간 사이의 전력 데이터일 수 있고, 제2 시간 전력 데이터는 A+2 및 A+3 시간 사이의 전력 데이터일 수 있으며, 제N 시간 데이터는 A+F-1 및 A+F 시간 사이의 전력 데이터일 수 있다. F는 168일 수 있다.The plurality of input layers 411 to 413 may receive some of the input data from the data generator (eg, the data generator 210 of FIG. 2 ). When the artificial neural network 400 is the first artificial neural network 310 of FIG. 3 , each of the plurality of input layers 411 to 413 may receive a portion of the first input data. The first input layer 411 may receive first time power data that is a part of the first input data from the data generator, and the second input layer 412 transmits the second time power data that is a part of the first input data as data. It may be received from the generator, and the N-th input layer 413 may receive N-th time power data, which is a part of the first input data, from the data generator. Here, the first time power data may be power data between A and A+1 times, the second time power data may be power data between A+2 and A+3 times, and the N-th time data is It may be power data between A+F-1 and A+F times. F may be 168.

예를 들어, 인공 신경망(400)이 도 3의 제2 인공 신경망(320)인 경우 복수의 입력 레이어들(411 내지 413) 각각은 제2 입력 데이터 중 일부를 수신할 수 있다. 제1 입력 레이어(411)는 제2 입력 데이터 중 일부인 제1 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있고, 제2 입력 레이어(412)는 제2 입력 데이터 중 일부인 제2 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있으며, 제N 입력 레이어(413)는 제2 입력 데이터 중 일부인 제N 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있다. 여기에서, 제1 시간 전력 데이터는 A 및 A+1 시간 사이의 전력 데이터일 수 있고, 제2 시간 전력 데이터는 A+1 및 A+2 시간 사이의 전력 데이터일 수 있으며, 제N 시간 데이터는 A+G-1 및 A+G 시간 사이의 전력 데이터일 수 있다. G는 6일 수 있다.For example, when the artificial neural network 400 is the second artificial neural network 320 of FIG. 3 , each of the plurality of input layers 411 to 413 may receive some of the second input data. The first input layer 411 may receive first time power data that is a part of the second input data from the data generator, and the second input layer 412 transmits the second time power data that is a part of the second input data as data. may be received from the generator, and the N-th input layer 413 may receive N-th time power data, which is a part of the second input data, from the data generator. Here, the first time power data may be power data between A and A+1 times, the second time power data may be power data between A+1 and A+2 times, and the N-th time data is It may be power data between A+G-1 and A+G times. G may be 6.

복수의 입력 레이어들(411 내지 413) 각각은 시간당 전력 데이터에 대한 처리를 수행하여 시간당 전력 행렬을 생성할 수 있다. 예를 들어, 제1 입력 레이어(411)는 제1 시간 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬(

Figure 112020076154537-pat00017
)을 생성할 수 있고, 제2 입력 레이어(412)는 제2 시간 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬(
Figure 112020076154537-pat00018
)을 생성할 수 있으며, 제N 입력 레이어(413)는 제N 시간 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬을 생성할 수 있다. Each of the plurality of input layers 411 to 413 may generate an hourly power matrix by processing the hourly power data. For example, the first input layer 411 performs processing on the first temporal power data to perform a first temporal power matrix (
Figure 112020076154537-pat00017
), and the second input layer 412 performs processing on the second temporal power data to generate a second temporal power matrix (
Figure 112020076154537-pat00018
), and the N-th input layer 413 may generate an N-th time power matrix by processing the N-th time power data.

예를 들어, 인공 신경망(400)이 도 3의 제1 인공 신경망인 경우, 제1 입력 레이어(411)는 A 및 A+1 시간 사이의 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬(

Figure 112020076154537-pat00019
)을 생성할 수 있고, 제2 입력 레이어(412)는 A+1 및 A+2 시간 사이의 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬(
Figure 112020076154537-pat00020
)을 생성할 수 있다. 인공 신경망(400)은 이러한 과정을 반복 수행할 수 있고, A+F-1 및 A+F 시간 사이의 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬(
Figure 112020076154537-pat00021
)을 생성할 수 있다.For example, when the artificial neural network 400 is the first artificial neural network of FIG. 3 , the first input layer 411 performs processing on the power data between times A and A+1 to obtain a first time power matrix (
Figure 112020076154537-pat00019
), and the second input layer 412 performs processing on the power data between times A+1 and A+2 to generate a second temporal power matrix (
Figure 112020076154537-pat00020
) can be created. The artificial neural network 400 may repeat this process, and perform processing on the power data between A+F-1 and A+F times to perform the N-th time power matrix (
Figure 112020076154537-pat00021
) can be created.

또한, 인공 신경망(400)이 도 3의 제2 인공 신경망인 경우, 제1 입력 레이어(411)는 A 및 A+1 시간 사이의 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬(

Figure 112020076154537-pat00022
)을 생성할 수 있고, 제2 입력 레이어(412)는 A+1 및 A+2 시간 사이의 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬(
Figure 112020076154537-pat00023
)을 생성할 수 있다. 인공 신경망(400)은 이러한 과정을 반복 수행할 수 있고, A+G-1 및 A+G 시간 사이의 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬(
Figure 112020076154537-pat00024
)을 생성할 수 있다.In addition, when the artificial neural network 400 is the second artificial neural network of FIG. 3 , the first input layer 411 performs processing on the power data between times A and A+1 to obtain a first time power matrix (
Figure 112020076154537-pat00022
), and the second input layer 412 performs processing on the power data between times A+1 and A+2 to generate a second temporal power matrix (
Figure 112020076154537-pat00023
) can be created. The artificial neural network 400 may repeat this process, and perform processing on the power data between A+G-1 and A+G times to perform the N-th time power matrix (
Figure 112020076154537-pat00024
) can be created.

복수의 입력 레이어들(411 내지 413) 각각은 시간당 전력 행렬을 복수의 히든 레이어(421 내지 432) 각각에 전송할 수 있다. 예를 들어, 제1 입력 레이어(411)는 제1 시간 전력 행렬(

Figure 112020076154537-pat00025
)을 제1 히든 레이어(421)에 전송할 수 있고, 제2 입력 레이어(412)는 제2 시간 전력 행렬(
Figure 112020076154537-pat00026
)을 제2 히든 레이어(422)에 전송할 수 있으며, 제N 입력 레이어(413)는 제N 시간 전력 행렬(
Figure 112020076154537-pat00027
)을 제N 히든 레이어(423)에 전송할 수 있다.Each of the plurality of input layers 411 to 413 may transmit a power matrix per time to each of the plurality of hidden layers 421 to 432 . For example, the first input layer 411 includes a first temporal power matrix (
Figure 112020076154537-pat00025
) may be transmitted to the first hidden layer 421 , and the second input layer 412 may have a second temporal power matrix (
Figure 112020076154537-pat00026
) can be transmitted to the second hidden layer 422 , and the N-th input layer 413 is an N-th temporal power matrix (
Figure 112020076154537-pat00027
) may be transmitted to the N-th hidden layer 423 .

복수의 히든 레이어들(421 내지 423) 각각은 시간당 전력 행렬을 복수의 입력 레이어들(411 내지 413) 각각으로부터 수신할 수 있다. 예를 들어, 제1 히든 레이어(421)는 제1 시간 전력 행렬(

Figure 112020076154537-pat00028
)을 제1 입력 레이어(411)로부터 수신할 수 있고, 제2 히든 레이어(422)는 제2 시간 전력 행렬(
Figure 112020076154537-pat00029
)을 제2 입력 레이어(412)로부터 수신할 수 있으며, 제N 히든 레이어(423)는 제N 시간 전력 행렬(
Figure 112020076154537-pat00030
)을 제N 입력 레이어(423)로부터 수신할 수 있다. 복수의 히든 레이어들(421 내지 423) 각각은 시간당 전력 행렬에 대한 처리를 수행하여 히든 행렬을 생성할 수 있다. 이를 상세히 설명하면 다음과 같다.Each of the plurality of hidden layers 421 to 423 may receive a power matrix per time from each of the plurality of input layers 411 to 413 . For example, the first hidden layer 421 is a first temporal power matrix (
Figure 112020076154537-pat00028
) may be received from the first input layer 411 , and the second hidden layer 422 may have a second temporal power matrix (
Figure 112020076154537-pat00029
) may be received from the second input layer 412, and the N-th hidden layer 423 is an N-th temporal power matrix (
Figure 112020076154537-pat00030
) may be received from the N-th input layer 423 . Each of the plurality of hidden layers 421 to 423 may generate a hidden matrix by processing the power matrix per time. This will be described in detail as follows.

도 5는 본 발명의 일 실시예에 따른 인공 신경망을 설명하기 위한 개념도이다.5 is a conceptual diagram for explaining an artificial neural network according to an embodiment of the present invention.

도 5를 참조하면, 인공 신경망(500)은 히든 레이어(510)를 포함할 수 있다. 히든 레이어(510)는 도 4의 히든 레이어들(421 내지 423) 중 하나일 수 있다. 또한, Referring to FIG. 5 , the artificial neural network 500 may include a hidden layer 510 . The hidden layer 510 may be one of the hidden layers 421 to 423 of FIG. 4 . Also,

히든 레이어(510)는 제t-1 시간 상태 행렬 (

Figure 112020076154537-pat00031
) 및 제t-1 시간 히든 행렬 (
Figure 112020076154537-pat00032
)를 입력 받을 수 있다. 여기에서, 상태 행렬은 각각의 시간에서 인공 신경망(500)의 상태를 나타내는 행렬일 수 있고, 전력 행렬 중 중요한 정보를 추출하기 위한 행렬일 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬(
Figure 112020076154537-pat00033
)을 입력 레이어로부터 수신할 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬(
Figure 112020076154537-pat00034
) 및 제t-1 시간 히든 행렬 (
Figure 112020076154537-pat00035
)에 대한 처리를 수행하여 t 시간에서의 제1 게이트 함수를 생성할 수 있다. 제1 게이트 함수는 제N-1 상태 행렬(
Figure 112020076154537-pat00036
)에서 불필요한 정보를 지우기 위한 함수일 수 있다. 히든 레이어(510)는 다음 수학식 1을 기초로 제1 게이트웨이 함수를 생성할 수 있다.The hidden layer 510 is a t-1 time state matrix (
Figure 112020076154537-pat00031
) and the t-1 time hidden matrix (
Figure 112020076154537-pat00032
) can be entered. Here, the state matrix may be a matrix indicating the state of the artificial neural network 500 at each time, and may be a matrix for extracting important information from the power matrix. The hidden layer 510 is the t-th time power matrix (
Figure 112020076154537-pat00033
) can be received from the input layer. The hidden layer 510 is the t-th time power matrix (
Figure 112020076154537-pat00034
) and the t-1 time hidden matrix (
Figure 112020076154537-pat00035
) to generate the first gate function at time t. The first gate function is an N-1 th state matrix (
Figure 112020076154537-pat00036
) may be a function to delete unnecessary information. The hidden layer 510 may generate a first gateway function based on Equation 1 below.

Figure 112020076154537-pat00037
Figure 112020076154537-pat00037

수학식 1에서,

Figure 112020076154537-pat00038
는 제1 게이트 함수일 수 있고,
Figure 112020076154537-pat00039
는 시그모이드(sigmoid) 함수 및 렐루(LeLu) 함수 중 하나일 수 있으며,
Figure 112020076154537-pat00040
는 제1 게이트 함수(
Figure 112020076154537-pat00041
)의 가중치일 수 있으며,
Figure 112020076154537-pat00042
는 제1 게이트 함수의 바이어스(bias)일 수 있다. 제1 게이트 함수(
Figure 112020076154537-pat00043
)는 행렬 형태일 수 있다. 또한, 히든 레이어(510)는 제t 시간 전력 행렬(
Figure 112020076154537-pat00044
) 및 제t-1 시간 히든 행렬
Figure 112020076154537-pat00045
에 대한 처리를 수행하여 제2 게이트 함수를 생성할 수 있다. 제2 게이트 함수는 제t-1 시간 상태 행렬(
Figure 112020076154537-pat00046
)에 중요한 정보를 삽입하기 위한 함수일 수 있다. 히든 레이어(510)는 다음 수학식 2를 기초로 제2 게이트 함수를 생성할 수 있다.In Equation 1,
Figure 112020076154537-pat00038
may be a first gate function,
Figure 112020076154537-pat00039
may be one of a sigmoid function and a LeLu function,
Figure 112020076154537-pat00040
is the first gate function (
Figure 112020076154537-pat00041
) can be a weight of
Figure 112020076154537-pat00042
may be a bias of the first gate function. first gate function (
Figure 112020076154537-pat00043
) may be in the form of a matrix. In addition, the hidden layer 510 is a t-th time power matrix (
Figure 112020076154537-pat00044
) and the t-1 time hidden matrix
Figure 112020076154537-pat00045
A second gate function may be generated by performing processing on . The second gate function is the t-1 th time state matrix (
Figure 112020076154537-pat00046
) may be a function for inserting important information into The hidden layer 510 may generate a second gate function based on Equation 2 below.

Figure 112020076154537-pat00047
Figure 112020076154537-pat00047

수학식 2에서,

Figure 112020076154537-pat00048
는 제2 게이트 함수일 수 있고,
Figure 112020076154537-pat00049
는 제2 게이트 함수(
Figure 112020076154537-pat00050
)의 가중치일 수 있으며,
Figure 112020076154537-pat00051
는 제2 게이트 함수(
Figure 112020076154537-pat00052
)의 바이어스일 수 있다. 또한, 제2 게이트 함수(
Figure 112020076154537-pat00053
)는 행렬 형태일 수 있다. 또한, 히든 레이어(510)는 제t 시간 전력 행렬(
Figure 112020076154537-pat00054
) 및 제t-1 시간 히든 행렬
Figure 112020076154537-pat00055
에 대한 처리를 수행하여 제3 게이트 함수를 생성할 수 있다. 제3 게이트 함수는 제t 시간 상태 행렬을 생성하기 위해 필요한 임시 상태 행렬일 수 있다. 히든 레이어(510)는 다음 수학식 3을 기초로 제3 게이트 함수를 생성할 수 있다.In Equation 2,
Figure 112020076154537-pat00048
may be a second gate function,
Figure 112020076154537-pat00049
is the second gate function (
Figure 112020076154537-pat00050
) can be a weight of
Figure 112020076154537-pat00051
is the second gate function (
Figure 112020076154537-pat00052
) may be biased. Also, the second gate function (
Figure 112020076154537-pat00053
) may be in the form of a matrix. In addition, the hidden layer 510 is a t-th time power matrix (
Figure 112020076154537-pat00054
) and the t-1 time hidden matrix
Figure 112020076154537-pat00055
A third gate function may be generated by performing processing on . The third gate function may be a temporary state matrix necessary for generating the t-th time state matrix. The hidden layer 510 may generate a third gate function based on Equation 3 below.

Figure 112020076154537-pat00056
Figure 112020076154537-pat00056

수학식 3에서,

Figure 112020076154537-pat00057
는 제3 게이트 함수일 수 있고,
Figure 112020076154537-pat00058
는 제3 게이트 함수의 가중치일 수 있으며,
Figure 112020076154537-pat00059
는 제3 게이트 함수의 바이어스일 수 있다. 히든 레이어(510)는 제t-1 시간 상태 행렬(
Figure 112020076154537-pat00060
), 제1 게이트 함수(
Figure 112020076154537-pat00061
), 제2 게이트 함수(
Figure 112020076154537-pat00062
), 및 제3 게이트 함수(
Figure 112020076154537-pat00063
)에 대한 처리를 수행하여 제t 시간 상태 행렬을 생성할 수 있다. 히든 레이어(510)는 다음 수학식 4를 기초로 제t 시간 상태 행렬(
Figure 112020076154537-pat00064
)을 생성할 수 있다.In Equation 3,
Figure 112020076154537-pat00057
may be a third gate function,
Figure 112020076154537-pat00058
may be the weight of the third gate function,
Figure 112020076154537-pat00059
may be a bias of the third gate function. The hidden layer 510 is a t-1 th time state matrix (
Figure 112020076154537-pat00060
), the first gate function (
Figure 112020076154537-pat00061
), the second gate function (
Figure 112020076154537-pat00062
), and the third gate function (
Figure 112020076154537-pat00063
) to generate a t-th time state matrix. The hidden layer 510 is a t-th time state matrix (
Figure 112020076154537-pat00064
) can be created.

Figure 112020076154537-pat00065
Figure 112020076154537-pat00065

히든 레이어(510)는 제t 시간 전력 행렬(

Figure 112020076154537-pat00066
) 및 제t-1 시간 히든 행렬(
Figure 112020076154537-pat00067
)에 대한 처리를 수행하여 제4 게이트 함수를 생성할 수 있다. 제4 게이트 함수는 제t 시간 히든 행렬을 생성하기 위해 필요한 행렬일 수 있다. 히든 레이어는 다음 수학식 5를 기초로 제4 게이트 함수를 생성할 수 있다.The hidden layer 510 is the t-th time power matrix (
Figure 112020076154537-pat00066
) and the t-1 time hidden matrix (
Figure 112020076154537-pat00067
) to generate a fourth gate function. The fourth gate function may be a matrix necessary to generate the t-th time hidden matrix. The hidden layer may generate a fourth gate function based on Equation 5 below.

Figure 112020076154537-pat00068
Figure 112020076154537-pat00068

수학식 5에서,

Figure 112020076154537-pat00069
는 제4 게이트 함수일 수 있고,
Figure 112020076154537-pat00070
는 제4 게이트 함수의 가중치일 수 있고,
Figure 112020076154537-pat00071
는 제4 게이트 함수의 바이어스일 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬(
Figure 112020076154537-pat00072
), 제t-1 시간 히든 행렬(
Figure 112020076154537-pat00073
) 및 제4 게이트 함수에 대한 처리를 수행하여 제t 시간 히든 행렬(
Figure 112020076154537-pat00074
)을 생성할 수 있다. 히든 레이어(510)는 다음 수학식 6을 기초로 제t 시간 히든 행렬(
Figure 112020076154537-pat00075
)을 생성할 수 있다. 히든 레이어(510)는 제t 시간 상태 행렬(
Figure 112020076154537-pat00076
) 및 제t 시간 히든 행렬(
Figure 112020076154537-pat00077
) 해당 히든 레이어와 연결된 다음 히든 레이어에 전송할 수 있다.In Equation 5,
Figure 112020076154537-pat00069
may be a fourth gate function,
Figure 112020076154537-pat00070
may be the weight of the fourth gate function,
Figure 112020076154537-pat00071
may be a bias of the fourth gate function. The hidden layer 510 is the t-th time power matrix (
Figure 112020076154537-pat00072
), the t-1 time hidden matrix (
Figure 112020076154537-pat00073
) and the fourth gate function by performing the processing on the t-th time hidden matrix (
Figure 112020076154537-pat00074
) can be created. The hidden layer 510 is the t-th time hidden matrix (
Figure 112020076154537-pat00075
) can be created. The hidden layer 510 is a t-th time state matrix (
Figure 112020076154537-pat00076
) and the t-time hidden matrix (
Figure 112020076154537-pat00077
) can be transmitted to the next hidden layer connected to the corresponding hidden layer.

예를 들어, 히든 레이어(510)가 도 4의 제2 히든 레이어(422)인 경우, 히든 레이어(510)는 제2 입력 레이어(예를 들어, 도 4의 제2 입력 레이어(412))로부터 제2 시간 전력 행렬(

Figure 112020076154537-pat00078
)을 수신할 수 있고, 제1 히든 레이어(예를 들어, 도 4의 제1 히든 레이어(421))로부터 제1 시간 상태 행렬(
Figure 112020076154537-pat00079
) 및 제1 시간 히든 행렬(
Figure 112020076154537-pat00080
)을 수신할 수 있다. 히든 레이어(510)는 제2 시간 전력 행렬(
Figure 112020076154537-pat00081
), 제1 시간 상태 행렬(
Figure 112020076154537-pat00082
) 및 제1 시간 히든 행렬(
Figure 112020076154537-pat00083
)에 대한 처리를 수행하여 제2 시간 상태 행렬(
Figure 112020076154537-pat00084
) 및 제2 시간 히든 행렬(
Figure 112020076154537-pat00085
)을 생성할 수 있다. 히든 레이어(510)는 제2 시간 상태 행렬(
Figure 112020076154537-pat00086
) 및 제2 시간 히든 행렬(
Figure 112020076154537-pat00087
)을 제3 히든 레이어에 전송할 수 있다.For example, when the hidden layer 510 is the second hidden layer 422 of FIG. 4 , the hidden layer 510 is formed from the second input layer (eg, the second input layer 412 of FIG. 4 ). second time power matrix (
Figure 112020076154537-pat00078
), and from the first hidden layer (eg, the first hidden layer 421 of FIG. 4 ), the first temporal state matrix (
Figure 112020076154537-pat00079
) and the first time hidden matrix (
Figure 112020076154537-pat00080
) can be received. The hidden layer 510 is a second temporal power matrix (
Figure 112020076154537-pat00081
), the first time state matrix (
Figure 112020076154537-pat00082
) and the first time hidden matrix (
Figure 112020076154537-pat00083
) by performing processing on the second time state matrix (
Figure 112020076154537-pat00084
) and the second temporal hidden matrix (
Figure 112020076154537-pat00085
) can be created. The hidden layer 510 is a second temporal state matrix (
Figure 112020076154537-pat00086
) and the second temporal hidden matrix (
Figure 112020076154537-pat00087
) may be transmitted to the third hidden layer.

인공 신경망(500)은 이러한 과정을 반복 수행하여 마지막 히든 행렬을 출력 레이어(예를 들어, 도 4의 출력 레이어(431))에 전송할 수 있다. 예를 들어, 히든 레이어(510)가 도 4의 제N 히든 레이어(423)인 경우, 히든 레이어(510)는 제N 입력 레이어(예를 들어, 도 4의 제N 입력 레이어(413))로부터 제N 시간 전력 행렬(

Figure 112020076154537-pat00088
)을 수신할 수 있고, 제N-1 히든 레이어(예를 들어, 도 4의 제N-1 히든 레이어(421))로부터 제N-1 시간 상태 행렬(
Figure 112020076154537-pat00089
) 및 제1 시간 히든 행렬(
Figure 112020076154537-pat00090
)을 수신할 수 있다. 히든 레이어(510)는 제N 시간 전력 행렬(
Figure 112020076154537-pat00091
), 제N-1 시간 상태 행렬(
Figure 112020076154537-pat00092
) 및 제N-1 시간 히든 행렬(
Figure 112020076154537-pat00093
)에 대한 처리를 수행하여 제N 시간 히든 행렬(
Figure 112020076154537-pat00094
)을 생성할 수 있다. 히든 레이어(510)는 제N 시간 히든 행렬(
Figure 112020076154537-pat00095
)을 출력 레이어에 전송할 수 있다. 히든 레이어(510)가 도 3의 제1 인공 신경망의 히든 레이어인 경우, 제N 시간 히든 행렬(
Figure 112020076154537-pat00096
)은 A+F-1 및 A+F 시간 사이의 전력 데이터에 대한 정보를 포함하는 제N 시간 전력 행렬(
Figure 112020076154537-pat00097
) 및 A+F-2 및 A+F-1 시간 사이의 전력 데이터인(
Figure 112020076154537-pat00098
)을 기초로 생성된 제N-1 시간 상태 행렬(
Figure 112020076154537-pat00099
) 및 제N-1 시간 히든 행렬(
Figure 112020076154537-pat00100
)를 기초로 생성될 수 있다. 또한, 히든 레이어(510)가 도 3의 제2 인공 신경망의 히든 레이어인 경우, 제N 시간 히든 행렬(
Figure 112020076154537-pat00101
)은 A+G-1 및 A+G 시간 사이의 전력 데이터에 대한 정보를 포함하는 제N 시간 전력 행렬(
Figure 112020076154537-pat00102
) 및 4 및 5 시간 사이의 전력 데이터인(
Figure 112020076154537-pat00103
)을 기초로 생성된 제N-1 시간 상태 행렬(
Figure 112020076154537-pat00104
) 및 제N-1 시간 히든 행렬(
Figure 112020076154537-pat00105
)를 기초로 생성될 수 있다.The artificial neural network 500 may repeat this process to transmit the last hidden matrix to the output layer (eg, the output layer 431 of FIG. 4 ). For example, when the hidden layer 510 is the N-th hidden layer 423 of FIG. 4 , the hidden layer 510 is formed from the N-th input layer (eg, the N-th input layer 413 of FIG. 4 ). Nth time power matrix (
Figure 112020076154537-pat00088
), and from the N-1 th hidden layer (eg, the N-1 th hidden layer 421 of FIG. 4 ), the N-1 th temporal state matrix (
Figure 112020076154537-pat00089
) and the first time hidden matrix (
Figure 112020076154537-pat00090
) can be received. The hidden layer 510 is an N-th time power matrix (
Figure 112020076154537-pat00091
), the N-1th time state matrix (
Figure 112020076154537-pat00092
) and the N-1 th time hidden matrix (
Figure 112020076154537-pat00093
) by performing processing on the N-th time hidden matrix (
Figure 112020076154537-pat00094
) can be created. The hidden layer 510 is an N-th time hidden matrix (
Figure 112020076154537-pat00095
) to the output layer. When the hidden layer 510 is the hidden layer of the first artificial neural network of FIG. 3, the N-th time hidden matrix (
Figure 112020076154537-pat00096
) is the N-th time power matrix (
Figure 112020076154537-pat00097
) and power data between A+F-2 and A+F-1 times (
Figure 112020076154537-pat00098
) generated on the basis of the N-1th time state matrix (
Figure 112020076154537-pat00099
) and the N-1 th time hidden matrix (
Figure 112020076154537-pat00100
) can be created based on In addition, when the hidden layer 510 is a hidden layer of the second artificial neural network of FIG. 3 , the N-th time hidden matrix (
Figure 112020076154537-pat00101
) is the N-th time power matrix (
Figure 112020076154537-pat00102
) and power data between 4 and 5 hours (
Figure 112020076154537-pat00103
) generated on the basis of the N-1th time state matrix (
Figure 112020076154537-pat00104
) and the N-1 th time hidden matrix (
Figure 112020076154537-pat00105
) can be created based on

다시 도 4를 참조하면, 출력 레이어(431)는 제N 시간 히든 행렬(

Figure 112020076154537-pat00106
)을 제N 히든 레이어(423)로부터 수신할 수 있다. 출력 레이어(431)는 제N 시간 히든 행렬(
Figure 112020076154537-pat00107
)을 기초로 출력 데이터를 생성할 수 있다. 출력 레이어(431)는 다음 수학식 6을 기초로 출력 데이터를 생성할 수 있다.Referring back to FIG. 4 , the output layer 431 is an N-th time hidden matrix (
Figure 112020076154537-pat00106
) may be received from the N-th hidden layer 423 . The output layer 431 is an N-th time hidden matrix (
Figure 112020076154537-pat00107
) can be used to generate output data. The output layer 431 may generate output data based on Equation 6 below.

Figure 112020076154537-pat00108
Figure 112020076154537-pat00108

수학식 6에서

Figure 112020076154537-pat00109
는 출력 데이터일 수 있고,
Figure 112020076154537-pat00110
는 소프트맥스 함수일 수 있으며,
Figure 112020076154537-pat00111
는 제t 시간 히든 행렬(
Figure 112020076154537-pat00112
)의 크기를 조절하기 위한 행렬일 수 있다. 제t 시간 히든 행렬(
Figure 112020076154537-pat00113
)이 제N 시간 히든 행렬(
Figure 112020076154537-pat00114
)인 경우,
Figure 112020076154537-pat00115
Figure 112020076154537-pat00116
일 수 있다. 또한,
Figure 112020076154537-pat00117
는 선형 함수일 수 있으나 이는 일 예시일 뿐이며 이에 한정하지 아니한다.in Equation 6
Figure 112020076154537-pat00109
can be output data,
Figure 112020076154537-pat00110
can be a softmax function,
Figure 112020076154537-pat00111
is the t-time hidden matrix (
Figure 112020076154537-pat00112
) may be a matrix for adjusting the size of . t-time hidden matrix(
Figure 112020076154537-pat00113
) is the N-th time hidden matrix (
Figure 112020076154537-pat00114
), if
Figure 112020076154537-pat00115
is
Figure 112020076154537-pat00116
can be Also,
Figure 112020076154537-pat00117
may be a linear function, but this is only an example and is not limited thereto.

예를 들어, 출력 레이어(431)가 도 3의 제1 인공 신경망의 출력 레이어인 경우, 출력 레이어(431)는 제1 출력 데이터를 생성할 수 있다. 출력 레이어가(431)가 도 3의 제2 인공 신경망의 출력 레이어인 경우, 출력 레이어(431)는 제2 출력 데이터를 생성할 수 있다. 예를 들어, 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 제1 출력 데이터는 A+F+1 시간에서의 부하 예측 값을 포함할 수 있다. 또한, 제2 입력 데이터가 A 및 A+G 시간 사이의 전력 데이터를 포함하는 경우 제2 출력 데이터는 A+G+1 시간에서의 부하 예측 값을 포함할 수 있다. 한편, 제1 입력 데이터가 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 제2 인공 신경망은 A+M*G 가 A+F와 동일해질 때까지 제2 출력 데이터를 반복하여 생성할 수 있다. 즉, F가 168이고, G가 6인 경우, 제2 인공 신경망은 M이 1 내지 28인 경우의 제2 입력 데이터들 각각에 대한 제2 출력 데이터들을 생성할 수 있다.For example, when the output layer 431 is an output layer of the first artificial neural network of FIG. 3 , the output layer 431 may generate first output data. When the output layer 431 is an output layer of the second artificial neural network of FIG. 3 , the output layer 431 may generate second output data. For example, when the first input data includes power data between time A and A+F, the first output data may include a load prediction value at time A+F+1. In addition, when the second input data includes power data between time A and A+G, the second output data may include a load prediction value at time A+G+1. On the other hand, when the first input data includes power data between the times A and A+F, the second artificial neural network performs the second output data until A+M*G becomes equal to A+F. can be created repeatedly. That is, when F is 168 and G is 6, the second artificial neural network may generate second output data for each of the second input data when M is 1 to 28.

한편, 도 4의 인공 신경망(400)은 미리 학습될 수 있으며, 학습 방법은 다음과 같을 수 있다.Meanwhile, the artificial neural network 400 of FIG. 4 may be trained in advance, and the learning method may be as follows.

도 6은 본 발명의 일 실시예에 따른 인공 신경망 학습 방법의 흐름도이다.6 is a flowchart of an artificial neural network learning method according to an embodiment of the present invention.

인공 신경망(예를 들어, 도 4의 인공 신경망(400))은 학습 모델을 생성할 수 있다(S610). 인공 신경망은 도 5의 수학식 1 내지 6과 같은 학습 모델을 생성할 수 있다.The artificial neural network (eg, the artificial neural network 400 of FIG. 4 ) may generate a learning model ( S610 ). The artificial neural network may generate a learning model as shown in Equations 1 to 6 of FIG. 5 .

인공 신경망은 학습 데이터를 생성할 수 있다(S620). 인공 신경망은 입력 데이터에 포함된 전력 데이터를 기초로 학습 데이터를 생성할 수 있다. 학습 데이터는 복수의 데이터 셋들을 포함할 수 있다. 인공 신경망은 데이터 셋들 중 하나를 검증 셋(test set)으로 나머지를 트레이닝 셋(training set)으로 분류할 수 있다. 데이터 셋들 중 하나를 검증 셋으로 나머지를 트레이닝 셋으로 분류할 수 있다.The artificial neural network may generate learning data (S620). The artificial neural network may generate training data based on power data included in the input data. The training data may include a plurality of data sets. The artificial neural network may classify one of the data sets as a test set and the rest as a training set. One of the data sets may be classified as a validation set and the rest as a training set.

예를 들어, 인공 신경망이 제1 인공 신경망(예를 들어, 도 3의 제1 인공 신경망(310))인 경우, 인공 신경망은 제1 입력 데이터를 기초로 제1 학습 데이터를 생성할 수 있다. 제1 학습 데이터는 복수의 제1 트레이닝 셋들 및 하나의 제1 검증 셋을 포함할 수 있다. 인공 신경망이 제2 인공 신경망(예를 들어, 도 의 제2 인공 신경망(320))인 경우, 인공 신경망은 제2 입력 데이터를 기초로 제2 학습 데이터를 생성할 수 있다. 제2 학습 데이터는 복수의 제2 트레이닝 셋들 및 하나의 제2 검증 셋을 포함할 수 있다.For example, when the artificial neural network is the first artificial neural network (eg, the first artificial neural network 310 of FIG. 3 ), the artificial neural network may generate first learning data based on the first input data. The first training data may include a plurality of first training sets and one first verification set. When the artificial neural network is the second artificial neural network (eg, the second artificial neural network 320 of FIG. ), the artificial neural network may generate second learning data based on the second input data. The second training data may include a plurality of second training sets and one second verification set.

인공 신경망은 학습 데이터를 기초로 학습을 수행할 수 있다(S630). 인공 신경망은 트레이닝 셋을 기초로 학습을 수행할 수 있다. 인공 신경망은 트레이닝 셋들을 수신하여, 트레이닝 셋들 각각에 대한 출력 값 생성할 수 있다. 인공 신경망은 트레이닝 셋들의 출력 값 각각을 실제 출력 값 각각과 비교하는 방식으로 학습을 수행할 수 있다. 인공 신경망은 다음 수학식 7의 MSE(Mean of Squared Error) 손실 함수를 기초로 학습을 수행할 수 있다.The artificial neural network may perform learning based on the learning data (S630). The artificial neural network may perform learning based on the training set. The artificial neural network may receive the training sets and generate an output value for each of the training sets. The artificial neural network may perform learning by comparing each of the output values of the training sets with each of the actual output values. The artificial neural network may perform learning based on the mean of squared error (MSE) loss function of Equation 7 below.

Figure 112020076154537-pat00118
Figure 112020076154537-pat00118

수학식 7에서,

Figure 112020076154537-pat00119
는 오차들의 평균 값일 수 있고,
Figure 112020076154537-pat00120
는 트레이닝 셋들 각각의 출력 값일 수 있으며,
Figure 112020076154537-pat00121
는 실제 출력 값일 수 있다. 즉, 인공 신경망은 트레이닝 셋들 각각의 출력 값(
Figure 112020076154537-pat00122
) 및 이에 대응하는 실제 출력 값(
Figure 112020076154537-pat00123
)의 차이의 평균을 연산하는 방식으로, 오차들의 평균 값(
Figure 112020076154537-pat00124
)을 연산할 수 있다. 인공 신경망은 학습 결과를 기초로 도 5의 제1 게이트 함수의 가중치(
Figure 112020076154537-pat00125
), 제2 게이트 함수의 가중치(
Figure 112020076154537-pat00126
), 제3 게이트 함수의 가중치(
Figure 112020076154537-pat00127
), 제4 게이트 함수의 가중치(
Figure 112020076154537-pat00128
)에 대한 업데이트를 수행할 수 있다. 또한, 인공 신경망은 도 5의 제t 시간 히든 행렬(
Figure 112020076154537-pat00129
)의 크기를 조절하기 위한 행렬(
Figure 112020076154537-pat00130
)에 대한 업데이트를 수행할 수 있다. 인공 신경망은 학습을 반복 수행하여, 제1 트레이닝 셋들 각각의 출력 값(
Figure 112020076154537-pat00131
)과 실제 출력 값(
Figure 112020076154537-pat00132
)과의 오차를 최소화 하는 방식으로 학습을 수행할 수 있다.In Equation 7,
Figure 112020076154537-pat00119
may be the average value of the errors,
Figure 112020076154537-pat00120
may be the output value of each of the training sets,
Figure 112020076154537-pat00121
may be an actual output value. That is, the artificial neural network uses the output value of each of the training sets (
Figure 112020076154537-pat00122
) and the corresponding actual output value (
Figure 112020076154537-pat00123
), the average value of the errors (
Figure 112020076154537-pat00124
) can be calculated. The artificial neural network is based on the learning result, the weight of the first gate function in FIG. 5 (
Figure 112020076154537-pat00125
), the weight of the second gate function (
Figure 112020076154537-pat00126
), the weight of the third gate function (
Figure 112020076154537-pat00127
), the weight of the fourth gate function (
Figure 112020076154537-pat00128
) can be updated. In addition, the artificial neural network is the t-th time hidden matrix (
Figure 112020076154537-pat00129
) to adjust the size of the matrix (
Figure 112020076154537-pat00130
) can be updated. The artificial neural network repeatedly performs learning to obtain an output value of each of the first training sets (
Figure 112020076154537-pat00131
) and the actual output value (
Figure 112020076154537-pat00132
) can be learned in a way that minimizes the error with

예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 인공 신경망은 제1 트레이닝 셋들 각각의 출력 값(

Figure 112020076154537-pat00133
)을 획득할 수 있다. 인공 신경망은 제1 트레이닝 셋들 각각의 출력 값(
Figure 112020076154537-pat00134
)과 실제 출력 값(
Figure 112020076154537-pat00135
)과의 오차를 연산할 수 있고, 오차들의 평균 값을 연산할 수 있다. 인공 신경망은 오차들의 평균 값(
Figure 112020076154537-pat00136
)을 최소화하는 방식으로 학습을 수행할 수 있다. 또한, 인공 신경망이 제 2인공 신경망인 경우, 인공 신경망은 제2 트레이닝 셋들 각각의 출력 값(
Figure 112020076154537-pat00137
)을 획득할 수 있다. 인공 신경망은 제2 트레이닝 셋들 각각의 출력 값(
Figure 112020076154537-pat00138
)과 실제 출력 값(
Figure 112020076154537-pat00139
)과의 오차를 연산할 수 있고, 오차들의 평균 값
Figure 112020076154537-pat00140
을 연산할 수 있다. 인공 신경망은 오차들의 평균 값(
Figure 112020076154537-pat00141
)을 최소화하는 방식으로 학습을 수행할 수 있다.For example, when the artificial neural network is the first artificial neural network, the artificial neural network uses an output value (
Figure 112020076154537-pat00133
) can be obtained. The artificial neural network is an output value of each of the first training sets (
Figure 112020076154537-pat00134
) and the actual output value (
Figure 112020076154537-pat00135
) can be calculated, and the average value of the errors can be calculated. The artificial neural network is the average value of the errors (
Figure 112020076154537-pat00136
) can be learned in a way that minimizes the In addition, when the artificial neural network is the second artificial neural network, the artificial neural network outputs each of the second training sets (
Figure 112020076154537-pat00137
) can be obtained. The artificial neural network is an output value of each of the second training sets (
Figure 112020076154537-pat00138
) and the actual output value (
Figure 112020076154537-pat00139
) can be calculated and the average value of the errors
Figure 112020076154537-pat00140
can be calculated. The artificial neural network is the average value of the errors (
Figure 112020076154537-pat00141
) can be learned in a way that minimizes the

인공 신경망은 학습 수행 결과에 대한 검증을 수행할 수 있다. 인공 신경망은 검증 셋을 기초로 학습 수행 결과에 대한 검증을 수행할 수 있다. 즉, 인공 신경망은 학습 수행 결과에 대한 검증을 수행하여 업데이트 된 제1 게이트 함수의 가중치(

Figure 112020076154537-pat00142
), 제2 게이트 함수의 가중치(
Figure 112020076154537-pat00143
), 제3 게이트 함수의 가중치(
Figure 112020076154537-pat00144
) 및 제4 게이트 함수의 가중치(
Figure 112020076154537-pat00145
)를 검증할 수 있다.The artificial neural network may verify the learning performance result. The artificial neural network may verify the learning performance result based on the verification set. That is, the artificial neural network performs validation on the learning performance result and updates the weight of the first gate function (
Figure 112020076154537-pat00142
), the weight of the second gate function (
Figure 112020076154537-pat00143
), the weight of the third gate function (
Figure 112020076154537-pat00144
) and the weight of the fourth gate function (
Figure 112020076154537-pat00145
) can be verified.

인공 신경망은 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 학습 수행 결과에 대한 검증을 수행할 수 있다. 예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 제1 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. 또한, 인공 신경망이 제2 인공 신경망인 경우, 제2 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. The artificial neural network may verify the learning performance result by comparing the output value of the verification set with the actual output value. For example, when the artificial neural network is the first artificial neural network, the validation may be performed by comparing the output value of the first validation set with the actual output value. Also, when the artificial neural network is the second artificial neural network, the validation may be performed by comparing the output value of the second validation set with the actual output value.

인공 신경망은 테스트 셋을 기초로 학습 수행 결과를 테스트할 수 있다. 인공 신경망은 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 학습 수행 결과에 대한 테스트를 수행할 수 있다. 예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 제1 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. 또한, 인공 신경망이 제2 인공 신경망인 경우, 제2 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다.The artificial neural network may test the learning performance result based on the test set. The artificial neural network may perform a test on the learning performance result by comparing the output value of the test set with the actual output value. For example, when the artificial neural network is the first artificial neural network, verification may be performed by comparing an output value of the first test set with an actual output value. Also, when the artificial neural network is the second artificial neural network, verification may be performed by comparing the output value of the second test set with the actual output value.

다시 도 3을 참조하면, 후처리부(330)는 제1 출력 데이터를 제1 인공 신경망(310)으로부터 수신할 수 있다. 또한, 후처리부(330)는 제2 출력 데이터를 제2 인공 신경망(320)으로부터 수신할 수 있다. 후처리부(330)는 제1 입력 데이터 및 제2 입력 데이터에 대한 처리를 수행하여 부하를 예측할 수 있고, 부하 예측 값을 생성할 수 있다. 예를 들어, 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 후처리부(330)는 A+F+1 시간에서의 부하를 예측할 수 있고, 부하 예측 값을 생성할 수 있다. 후처리부(330)는 부하 예측 값을 제어부(예를 들어, 도 2의 제어부(230))에 전송할 수 있다. 한편, 후처리부(330)는 미리 기계 학습을 수행할 수 있다. 후처리부(330)는 로지스틱 회귀(logistic regression) 알고리즘을 기초로 기계 학습을 수행할 수 있다. 후처리부(330)는 다음과 같은 방법으로 기계 학습을 수행할 수 있다.Referring back to FIG. 3 , the post-processing unit 330 may receive the first output data from the first artificial neural network 310 . Also, the post-processing unit 330 may receive the second output data from the second artificial neural network 320 . The post-processing unit 330 may predict a load by processing the first input data and the second input data, and may generate a load prediction value. For example, when the first input data includes power data between time A and A+F, the post-processing unit 330 may predict the load at time A+F+1 and generate a load prediction value. can The post-processing unit 330 may transmit the load prediction value to the control unit (eg, the control unit 230 of FIG. 2 ). Meanwhile, the post-processing unit 330 may perform machine learning in advance. The post-processing unit 330 may perform machine learning based on a logistic regression algorithm. The post-processing unit 330 may perform machine learning in the following way.

도 7은 본 발명의 일 실시예에 따른 기계 학습 방법의 흐름도이다.7 is a flowchart of a machine learning method according to an embodiment of the present invention.

도 7을 참조하면, 후처리부(예를 들어, 도 3의 후처리부(330))는 학습 모델을 생성할 수 있다(S710). 후처리부는 로지스틱 회귀 알고리즘을 기초로 기초로 다음 수학식 8에 따른 오즈(odds)를 생성할 수 있다.Referring to FIG. 7 , the post-processing unit (eg, the post-processing unit 330 of FIG. 3 ) may generate a learning model ( S710 ). The post-processing unit may generate odds according to Equation 8 below based on the logistic regression algorithm.

Figure 112020076154537-pat00146
Figure 112020076154537-pat00146

수학식 8에서, p는 학습 데이터가 첨두 값를 포함할 확률일 수 있다. 첨두 값은 부하의 최대 값일 수 있다. 후처리부는 수학식 8의 오즈에 대한 로그 연산을 수행하여 다음 수학식 9와 같은 로그 오즈(log odds)를 생성할 수 있다.In Equation 8, p may be a probability that the training data includes a peak value. The peak value may be the maximum value of the load. The post-processing unit may perform a log operation on the odds of Equation 8 to generate log odds as shown in Equation 9 below.

Figure 112020076154537-pat00147
Figure 112020076154537-pat00147

수학식 9에서, l은 로그 오즈일 수 있고, b는 미리 설정된 값일 수 있다. 예를 들어, b는 10일 수 있다. 한편, 로그 오즈는 다음 수학식 10과 같이 나타낼 수 있다.In Equation 9, l may be a log odds, and b may be a preset value. For example, b may be 10. Meanwhile, the log odds can be expressed as in Equation 10 below.

Figure 112020076154537-pat00148
Figure 112020076154537-pat00148

수학식 10에서,

Figure 112020076154537-pat00149
는 미리 설정된 값일 수 있고,
Figure 112020076154537-pat00150
는 학습 데이터 중 제1 출력 데이터에 해당하는 데이터일 수 있으며,
Figure 112020076154537-pat00151
는 학습 데이터 중 제2 출력 데이터에 해당하는 데이터일 수 있고,
Figure 112020076154537-pat00152
Figure 112020076154537-pat00153
에 대한 가중치일 수 있으며,
Figure 112020076154537-pat00154
Figure 112020076154537-pat00155
에 대한 가중치일 수 있다. 후처리부는 수학식 10을 기초로 후처리부가 부하를 예측할 확률 함수를 생성할 수 있다. 후처리부가 생성하는 확률 함수(
Figure 112020076154537-pat00156
)는 다음 수학식 11과 같을 수 있다.In Equation 10,
Figure 112020076154537-pat00149
may be a preset value,
Figure 112020076154537-pat00150
may be data corresponding to the first output data among the training data,
Figure 112020076154537-pat00151
may be data corresponding to the second output data among the training data,
Figure 112020076154537-pat00152
is
Figure 112020076154537-pat00153
can be a weight for
Figure 112020076154537-pat00154
is
Figure 112020076154537-pat00155
may be a weight for . The post-processor may generate a probability function for predicting the load by the post-processing unit based on Equation (10). The probability function generated by the post-processing unit (
Figure 112020076154537-pat00156
) may be as in Equation 11 below.

Figure 112020076154537-pat00157
Figure 112020076154537-pat00157

후처리부는 학습 데이터를 생성할 수 있다(S720). 후처리부는 제1 출력 데이터 및 제2 출력 데이터를 기초로 학습 데이터를 생성할 수 있다. 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 대한 합산을 수행하고, 이를 분할하는 방식으로 학습 데이터를 생성할 수 있다. 후처리부는 제1 출력 데이터에 포함된 예측 값 및 제2 출력 데이터에 포함된 예측 값을 U를 주기로 하여 분류할 수 있다. 예를 들어, U는 24일 수 있다. 즉, 후처리부는 1일을 주기로 하여 제1 출력 데이터 및 제2 출력 데이터를 분류할 수 있다.The post-processing unit may generate training data (S720). The post-processing unit may generate training data based on the first output data and the second output data. The post-processing unit may generate the training data by performing summing on the first output data and the second output data and dividing them. The post-processing unit may classify the predicted values included in the first output data and the predicted values included in the second output data with U as a period. For example, U may be 24. That is, the post-processing unit may classify the first output data and the second output data with a cycle of one day.

후처리부는 기계 학습을 수행할 수 있다(S730). 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 첨두 값이 포함되어 있는지 판단할 수 있다. 후처리부는 첨두 값이 포함되어 있는 경우, P가 1 값을 출력할 수 있도록 기계 학습을 수행할 수 있다. 후처리부는

Figure 112020076154537-pat00158
에 대한 가중치인
Figure 112020076154537-pat00159
Figure 112020076154537-pat00160
에 대한 가중치인
Figure 112020076154537-pat00161
를 변경하는 방식으로 학습을 수행할 수 있다.The post-processing unit may perform machine learning (S730). The post-processing unit may determine whether a peak value is included in the first output data and the second output data. The post-processing unit may perform machine learning so that P outputs a value of 1 when a peak value is included. post-processing unit
Figure 112020076154537-pat00158
weight for
Figure 112020076154537-pat00159
and
Figure 112020076154537-pat00160
weight for
Figure 112020076154537-pat00161
Learning can be performed by changing the

다시 도 2를 참조하면, 제어부(230)는 부하 예측 값을 후처리부(예를 들어, 도 3의 후처리부(330))로부터 수신할 수 있다. 제어부(230)는 부하 예측 값을 기초로 전력 생산 장치(예를 들어, 도 1의 전력 생산 장치(110))의 전력 생산량에 대한 제어를 수행할 수 있다.Referring back to FIG. 2 , the controller 230 may receive the load prediction value from the post-processing unit (eg, the post-processing unit 330 of FIG. 3 ). The controller 230 may control the power output of the power generating device (eg, the power generating device 110 of FIG. 1 ) based on the load prediction value.

도 8은 본 발명의 일 실시예에 따른 부하 예측 방법의 흐름도이다.8 is a flowchart of a load prediction method according to an embodiment of the present invention.

도 8을 참조하면, 부하 예측부(예를 들어, 도 2의 부하 예측부(220)는 제1 입력 데이터 및 제2 입력 데이터를 데이터 생성부(예를 들어, 도 2의 데이터 생성부(210)로부터 수신할 수 있다(S810). 제1 입력 데이터는 전체 전력 데이터 중 제1 주기 동안의 전력 데이터를 포함할 수 있다. 예를 들어, 제1 주기는 F일 수 있고, 제1 입력 데이터는 전체 전력 데이터 중 A 및 A+F 시간 사이의 전력 데이터를 포함할 수 있다. 제2 입력 데이터는 전체 전력 데이터 중 제2 주기 동안의 전력 데이터를 포함할 수 있다. 예를 들어, 제2 주기는 G시간일 수 있고, 제2 입력 데이터는 전체 전력 데이터 중 A+(M-1)*G 및 A+M*G 시간 사이의 전력 데이터를 포함할 수 있다. 여기에서, M은 1 내지 28 중 하나일 수 있다.Referring to FIG. 8 , the load prediction unit (eg, the load prediction unit 220 of FIG. 2 ) generates the first input data and the second input data by the data generation unit (eg, the data generation unit 210 of FIG. 2 ) ) may be received from ( S810 ). The first input data may include power data for a first period among all power data. For example, the first period may be F, and the first input data may include Among the total power data, it may include power data between times A and A+F. The second input data may include power data during the second period of the total power data. For example, the second period is may be G time, and the second input data may include power data between A+(M−1)*G and A+M*G times among all power data, where M is one of 1 to 28 can be

부하 예측부는 제1 입력 데이터를 기초로 제1 출력 데이터를 생성할 수 있다(S820). 부하 예측부의 제1 인공 신경망(예를 들어, 도 3의 제1 인공 신경망(310))은 제1 입력 데이터를 기초로 제1 출력 데이터를 생성할 수 있다. 제1 인공 신경망은 부하 예측부의 후처리부(예를 들어, 도 3의 후처리부(330))에 제1 출력 데이터를 전송할 수 있다. 부하 에측부는 제1 입력 데이터를 기초로 제2 출력 데이터를 생성할 수 있다(S830). 부하 예측부의 제2 인공 신경망(예를 들어, 도 3의 제2 인공 신경망(320))은 제2 입력 데이터를 기초로 제2 출력 데이터를 생성할 수 있다. 제2 인공 신경망은 후처리부에 제2 출력 데이터를 전송할 수 있다.The load predictor may generate first output data based on the first input data ( S820 ). The first artificial neural network (eg, the first artificial neural network 310 of FIG. 3 ) of the load predictor may generate first output data based on the first input data. The first artificial neural network may transmit the first output data to the post-processing unit (eg, the post-processing unit 330 of FIG. 3 ) of the load prediction unit. The load predictor may generate second output data based on the first input data (S830). The second artificial neural network (eg, the second artificial neural network 320 of FIG. 3 ) of the load predictor may generate second output data based on the second input data. The second artificial neural network may transmit second output data to the post-processing unit.

부하 예측부는 제1 출력 데이터 및 제2 출력 데이터를 기초로 부하를 예측할 수 있다(S840). 후처리부는 제1 출력 데이터를 제1 인공 신경망으로부터 수신할 수 있다. 후처리부는 제2 출력 데이터를 제2 인공 신경망으로부터 수신할 수 있다. 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측할 수 있다. 예를 들어, 제1 출력 데이터가 A 및 A+F 시간 사이의 제1 입력 데이터를 기초로 생성되고, 제2 출력 데이터가 A+M*G 및 A+(M+1)*G 시간 사이의 제2 입력 데이터를 기초로 생성되는 경우, 부하 예측부는 A+F+1 시간에서의 부하를 예측할 수 있다. 한편, 전력 제어 장치는 통신 노드일 수 있고, 다음과 같이 구성될 수 있다.The load predictor may predict a load based on the first output data and the second output data (S840). The post-processing unit may receive the first output data from the first artificial neural network. The post-processing unit may receive the second output data from the second artificial neural network. The post-processing unit may predict a load by processing the first output data and the second output data. For example, first output data is generated based on first input data between times A and A+F, and second output data is generated based on first input data between times A+M*G and A+(M+1)*G 2 When generated based on the input data, the load predictor may predict the load at time A+F+1. Meanwhile, the power control device may be a communication node, and may be configured as follows.

도 9는 본 발명의 다른 실시예에 따른 전력 제어 장치의 블록도이다.9 is a block diagram of a power control apparatus according to another embodiment of the present invention.

도 9를 참조하면 전력 제어 장치(900)는 프로세서(910), 메모리(920), 송신 모듈(930) 및 수신 모듈(940)을 포함할 수 있다. 또한, 전력 제어 장치(900)는 저장 장치(950)등을 더 포함할 수 있다. 전력 제어 장치(900)에 포함된 각각의 구성요소들은 버스(bus)에 의해 연결되어 서로 통신을 수행할 수 있다.Referring to FIG. 9 , the power control apparatus 900 may include a processor 910 , a memory 920 , a transmission module 930 , and a reception module 940 . In addition, the power control device 900 may further include a storage device 950 . Each of the components included in the power control device 900 may be connected by a bus to communicate with each other.

다만, 전력 제어 장치(900)에 포함된 각각의 구성요소들은 공통 버스(960)가 아니라, 프로세서(910)를 중심으로 개별 인터페이스 또는 개별 버스를 통하여 연결될 수도 있다. 예를 들어, 프로세서(910)는 메모리(920), 송신 모듈(930), 수신 모듈(940) 및 저장 장치(950)중 적어도 하나와 전용 인터페이스를 통하여 연결될 수도 있다.However, each of the components included in the power control device 900 may not be connected to the common bus 960 but to the processor 910 through an individual interface or an individual bus. For example, the processor 910 may be connected to at least one of the memory 920 , the transmission module 930 , the reception module 940 , and the storage device 950 through a dedicated interface.

프로세서(910)는 메모리(920) 및 저장 장치(950) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(910)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(920) 및 저장 장치(950) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(920)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The processor 910 may execute a program command stored in at least one of the memory 920 and the storage device 950 . The processor 910 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Each of the memory 920 and the storage device 950 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 920 may include at least one of a read only memory (ROM) and a random access memory (RAM).

발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. example The methods according to the invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능 매체의 예에는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media include hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to the above embodiments, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. will be able

Claims (20)

수용가로부터 수신한 소비 전력에 대한 정보를 시계열적으로 정렬하여 전체 전력 데이터를 생성하는 단계;
상기 전체 전력 데이터 중 제1 주기동안의 전력 데이터인 제1 입력 데이터를 수신하는 단계;
상기 전체 전력 데이터 중 제2 주기동안의 전력 데이터인 제2 입력 데이터를 수신하는 단계;
상기 제1 입력 데이터를 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하는 단계;
상기 제2 입력 데이터를 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하는 단계; 및
상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 상기 수용가의 전력 부하를 예측하는 단계를 포함하고,
상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고 상기 제1 주기는 F 시간이고,
상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 주기는 G 시간이고, G는 F보다 작으며,
상기 부하를 예측하는 단계는,
미리 기계 학습이 수행된 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함하고,
상기 기계 학습은,
상기 기계 학습에 대한 학습 모델을 생성하는 단계;
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하는 단계; 및
상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하는 단계를 통해 수행되며,
상기 학습 모델은, 아래의 수학식을 포함하고,
Figure 112021026911163-pat00187

여기에서, 상기 p는 확률 함수이고, 상기 b는 미리 설정된 값이며, 상기
Figure 112021026911163-pat00188
는 미리 설정된 값이고, 상기
Figure 112021026911163-pat00189
는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 상기
Figure 112021026911163-pat00190
는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 상기
Figure 112021026911163-pat00191
는 상기
Figure 112021026911163-pat00192
에 대한 가중치이며, 상기
Figure 112021026911163-pat00193
는 상기
Figure 112021026911163-pat00194
에 대한 가중치인, 부하 예측 방법.
generating total power data by arranging information on power consumption received from consumers in time series;
receiving first input data that is power data for a first period among the total power data;
receiving second input data, which is power data for a second period of the total power data;
generating first output data by inputting the first input data into a first artificial neural network;
generating second output data by inputting the second input data into a second artificial neural network; and
Predicting the power load of the consumer by performing processing on the first output data and the second output data,
The first input data includes power data between A to A+F time and the first period is F time,
the second input data includes power data between A+(M-1)*G and A+M*G time, the second period is G time, G is less than F;
Predicting the load comprises:
Predicting a load by performing processing on the first output data and the second output data by a server on which machine learning has been performed in advance,
The machine learning is
generating a learning model for the machine learning;
generating learning data based on the first output data and the second output data; and
It is performed through the step of changing the weight of the learning model based on the learning data,
The learning model includes the following equation,
Figure 112021026911163-pat00187

Here, p is a probability function, b is a preset value, and
Figure 112021026911163-pat00188
is a preset value, and
Figure 112021026911163-pat00189
is data corresponding to the first output data among the learning data,
Figure 112021026911163-pat00190
is data corresponding to the second output data among the training data, and
Figure 112021026911163-pat00191
is said
Figure 112021026911163-pat00192
is the weight for , and
Figure 112021026911163-pat00193
is said
Figure 112021026911163-pat00194
A method of load prediction, which is a weight for .
청구항 1에 있어서,
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)인, 부하 예측 방법.
The method according to claim 1,
At least one of the first artificial neural network and the second artificial neural network is a Long Short Term Memory network (LSTM).
청구항 1에 있어서,
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 미리 학습이 수행된, 부하 예측 방법.
The method according to claim 1,
At least one of the first artificial neural network and the second artificial neural network is pre-trained, load prediction method.
청구항 1에 있어서,
상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함하는, 부하 예측 방법.
The method according to claim 1,
The first output data includes a load prediction value of A+F+1 time, the load prediction method.
청구항 1에 있어서,
상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함하는, 부하 예측 방법.
The method according to claim 1,
The second output data includes a load prediction value of A+M*G+1 time, the load prediction method.
청구항 1에 있어서,
상기 부하를 예측하는 단계는,
A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하는 단계를 포함하는, 부하 예측 방법.
The method according to claim 1,
Predicting the load comprises:
By processing the first output data including the load prediction value of A+F+1 time and the second output data including the load prediction value of A+M*G+1 time, the A+F A load prediction method comprising the step of estimating the load of +1 hour.
삭제delete 청구항 1에 있어서,
상기 기계 학습은,
로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행되는, 부하 예측 방법.
The method according to claim 1,
The machine learning is
A load prediction method, performed based on a logistic regression algorithm.
삭제delete 삭제delete 프로세서(processor);
상기 프로세서에 의해 실행되는 하나 이상의 명령들이 저장된 메모리(memory); 및
제1 인공 신경망, 제2 인공 신경망 및 서버를 포함하며,
상기 하나 이상의 명령들은,
수용가로부터 수신한 소비 전력에 대한 정보를 시계열적으로 정렬하여 전체 전력 데이터를 생성하고;
상기 전체 전력 데이터 중 제1 주기동안의 전력 데이터인 제1 입력 데이터를 수신하고;
상기 전체 전력 데이터 중 제2 주기동안의 전력 데이터인 제2 입력 데이터를 수신하고;
상기 제1 입력 데이터를 상기 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하고;
상기 제2 입력 데이터를 상기 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하고; 그리고,
상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 상기 수용가의 전력 부하를 예측하도록 실행되고,
상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 주기는 F 시간이고,
상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 주기는 G 시간이고, G는 F보다 작으며,
상기 부하를 예측하는 경우,
상기 하나 이상의 명령들은,
미리 기계 학습이 수행된 상기 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행되고,
상기 기계 학습을 수행하는 경우,
상기 하나 이상의 명령들은,
상기 기계 학습에 대한 학습 모델을 생성하고;
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하고; 그리고,
상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하도록 실행되며,
상기 학습 모델은, 아래의 수학식을 포함하고,
Figure 112021026911163-pat00195

여기에서, 상기 p는 확률 함수이고, 상기 b는 미리 설정된 값이며, 상기
Figure 112021026911163-pat00196
는 미리 설정된 값이고, 상기
Figure 112021026911163-pat00197
는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 상기
Figure 112021026911163-pat00198
는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 상기
Figure 112021026911163-pat00199
는 상기
Figure 112021026911163-pat00200
에 대한 가중치이며, 상기
Figure 112021026911163-pat00201
는 상기
Figure 112021026911163-pat00202
에 대한 가중치인, 부하 예측 장치.
processor;
a memory in which one or more instructions executed by the processor are stored; and
It includes a first artificial neural network, a second artificial neural network, and a server,
the one or more instructions,
generating total power data by arranging information on power consumption received from consumers in time series;
receiving first input data that is power data for a first period among the total power data;
receiving second input data, which is power data for a second period among the total power data;
inputting the first input data to the first artificial neural network to generate first output data;
inputting the second input data to the second artificial neural network to generate second output data; And,
and perform processing on the first output data and the second output data to predict the power load of the consumer;
The first input data includes power data between A to A+F time, the first period is F time,
the second input data includes power data between A+(M-1)*G and A+M*G time, the second period is G time, G is less than F;
When predicting the load,
the one or more instructions,
The server, on which machine learning has been performed in advance, is executed to predict a load by processing the first output data and the second output data,
When performing the above machine learning,
the one or more instructions,
create a learning model for the machine learning;
generate training data based on the first output data and the second output data; And,
is executed to change the weight of the learning model based on the learning data,
The learning model includes the following equation,
Figure 112021026911163-pat00195

Here, p is a probability function, b is a preset value, and
Figure 112021026911163-pat00196
is a preset value, and
Figure 112021026911163-pat00197
is data corresponding to the first output data among the learning data,
Figure 112021026911163-pat00198
is data corresponding to the second output data among the training data, and
Figure 112021026911163-pat00199
is said
Figure 112021026911163-pat00200
is the weight for , and
Figure 112021026911163-pat00201
is said
Figure 112021026911163-pat00202
The load prediction device, which is a weight for .
청구항 11에 있어서,
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)인, 부하 예측 장치.
12. The method of claim 11,
At least one of the first artificial neural network and the second artificial neural network is a Long Short Term Memory network (LSTM).
청구항 11에 있어서,
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은, 미리 학습이 수행된, 부하 예측 장치.
12. The method of claim 11,
At least one of the first artificial neural network and the second artificial neural network is pre-learning, a load prediction apparatus.
청구항 11에 있어서,
상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함하는, 부하 예측 장치.
12. The method of claim 11,
The first output data includes a load prediction value of A+F+1 time, the load prediction device.
청구항 11에 있어서,
상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함하는, 부하 예측 장치.
12. The method of claim 11,
The second output data includes a load prediction value of A+M*G+1 time, the load prediction device.
청구항 11에 있어서,
상기 부하를 예측하는 경우,
상기 하나 이상의 명령들은,
A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하도록 실행되는, 부하 예측 장치.
12. The method of claim 11,
When predicting the load,
the one or more instructions,
By processing the first output data including the load prediction value of A+F+1 time and the second output data including the load prediction value of A+M*G+1 time, the A+F A load prediction device, which is executed to predict the load of +1 time.
삭제delete 청구항 11에 있어서,
상기 기계 학습은,
로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행되는, 부하 예측 장치.
12. The method of claim 11,
The machine learning is
A load prediction device that is performed based on a logistic regression algorithm.
삭제delete 삭제delete
KR1020200090542A 2020-02-18 2020-07-21 Method of predicting load and apparatus thereof KR102268104B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200020016 2020-02-18
KR1020200020016 2020-02-18

Publications (1)

Publication Number Publication Date
KR102268104B1 true KR102268104B1 (en) 2021-06-22

Family

ID=76600418

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200090542A KR102268104B1 (en) 2020-02-18 2020-07-21 Method of predicting load and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102268104B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010076536A (en) * 2008-09-25 2010-04-08 Toyota Motor Corp Electronic control unit, intelligent sensor, control system for vehicle, signal sampling method
KR101662809B1 (en) * 2015-05-28 2016-10-06 고려대학교 산학협력단 Apparatus and method for forecasting electrical load in railway station
KR101875329B1 (en) * 2017-06-12 2018-07-05 한국과학기술원 Forecasting apparatus and method for power consumption
KR101941854B1 (en) * 2018-11-08 2019-01-24 문경훈 System and method of estimating load with null data correction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010076536A (en) * 2008-09-25 2010-04-08 Toyota Motor Corp Electronic control unit, intelligent sensor, control system for vehicle, signal sampling method
KR101662809B1 (en) * 2015-05-28 2016-10-06 고려대학교 산학협력단 Apparatus and method for forecasting electrical load in railway station
KR101875329B1 (en) * 2017-06-12 2018-07-05 한국과학기술원 Forecasting apparatus and method for power consumption
KR101941854B1 (en) * 2018-11-08 2019-01-24 문경훈 System and method of estimating load with null data correction

Similar Documents

Publication Publication Date Title
CN109478045B (en) Controlling a target system using prediction
Kuznetsova et al. Reinforcement learning for microgrid energy management
Osório et al. A new scenario generation-based method to solve the unit commitment problem with high penetration of renewable energies
Moser et al. Adaptive power management in energy harvesting systems
Bhusal et al. Deep ensemble learning-based approach to real-time power system state estimation
CN105164593A (en) Method and device for controlling energy-generating system which can be operated with renewable energy source
Tang et al. Efficient scenario generation of multiple renewable power plants considering spatial and temporal correlations
KR20200081098A (en) System for operation of virtual power plant based on hybrid prediction model and method thereof
Duan et al. A deep reinforcement learning based approach for optimal active power dispatch
US20240054020A1 (en) Computing resource configuration methods and apparatuses
KR20190063198A (en) Dynamic management system of energy demand and operation method thereof
Yao et al. Management of cascading outage risk based on risk gradient and Markovian tree search
Guo et al. Distributed optimal energy scheduling based on a novel PD pricing strategy in smart grid
Stricker et al. Robustness of predictive energy harvesting systems: Analysis and adaptive prediction scaling
Vijayan Energy consumption prediction in low energy buildings using machine learning and artificial intelligence for energy efficiency
Krishnasamy et al. A Refined Teaching‐Learning Based Optimization Algorithm for Dynamic Economic Dispatch of Integrated Multiple Fuel and Wind Power Plants
US20150097531A1 (en) System and method for controlling networked, grid-level energy storage devices
Steer et al. Decision tree ensembles for online operation of large smart grids
CN117791596A (en) Power dispatching method, system, electronic equipment and storage medium of fault power grid
KR102268104B1 (en) Method of predicting load and apparatus thereof
KR20220011524A (en) Method of predicting load and apparatus thereof
Siva et al. Hybrid LSTM‐PCA‐Powered Renewable Energy‐Based Battery Life Prediction and Management for IoT Applications
Teekaraman et al. [Retracted] Diminution of Smart Grid with Renewable Sources Using Support Vector Machines for Identification of Regression Losses in Large‐Scale Systems
Khan et al. Dynamic feedback neuro-evolutionary networks for forecasting the highly fluctuating electrical loads
Alemazkoor et al. Fast Probabilistic Voltage control for distribution networks with distributed generation using polynomial surrogates

Legal Events

Date Code Title Description
GRNT Written decision to grant