KR102268104B1 - Method of predicting load and apparatus thereof - Google Patents
Method of predicting load and apparatus thereof Download PDFInfo
- Publication number
- KR102268104B1 KR102268104B1 KR1020200090542A KR20200090542A KR102268104B1 KR 102268104 B1 KR102268104 B1 KR 102268104B1 KR 1020200090542 A KR1020200090542 A KR 1020200090542A KR 20200090542 A KR20200090542 A KR 20200090542A KR 102268104 B1 KR102268104 B1 KR 102268104B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- neural network
- artificial neural
- output data
- time
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J3/00—Circuit arrangements for ac mains or ac distribution networks
- H02J3/003—Load forecast, e.g. methods or systems for forecasting future load demand
Landscapes
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- Supply And Distribution Of Alternating Current (AREA)
Abstract
Description
본 발명은 부하 예측 방법 및 장치에 관한 것으로, 더욱 상세하게는 인공 신경망을 이용한 부하 예측 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for predicting a load, and more particularly, to a method and apparatus for predicting a load using an artificial neural network.
기존의 공급 중심에서 수요와 관리, 그리고 서비스로 이어지는 에너지 정책이 대두되면서, 스마트 그리드(smart grid) 즉, 지능형 전력망을 포함한 스마트 에코(smart eco) 등의 에너지 관리와 절약이 강조되고 있는 실정이다. 전력 계통 운영자는 스마트 그리드를 통해 전력 수용가의 전력 사용 패턴을 분석할 수 있고, 이를 기초로 전력 수용가의 전력 사용 패턴의 변화를 유도할 수 있다. 이를 통해, 전력 계통 운영자는 피크 수요 절감 및 전력계통 운영의 안정화를 도모할 수 있고, 전력 수용가에 의한 불필요한 전력 사용을 줄일 수 있다.As energy policies that lead from supply-oriented to demand, management, and service are emerging, energy management and saving such as a smart grid, that is, a smart eco, including an intelligent power grid, are being emphasized. The power grid operator may analyze the power consumption pattern of the power consumer through the smart grid, and may induce a change in the power consumer's power usage pattern based on this. Through this, the power system operator can reduce peak demand and stabilize the power system operation, and can reduce unnecessary power use by power consumers.
한편, 전력 계통 운영 기관에서는 여러 상황의 전력 수용가를 대상으로 한 다양한 에너지 관리 시스템들이 개발되고 있다. 최근 에너지의 효율적인 사용을 위하여 도입된 에너지관리시스템(Energy Management System, EMS)을 통하여 소규모 부하뿐만 아니라, 중규모 및 대규모 부하에서도 안정적이고 경제적인 부하 운용 및 전력 수급을 위해 부하의 정확한 수요 예측이 요구될 수 있다.Meanwhile, various energy management systems for power consumers in various situations are being developed in power system operating organizations. Through the Energy Management System (EMS), which was recently introduced for efficient use of energy, accurate demand prediction of loads is required for stable and economical load operation and power supply not only in small loads, but also in medium and large loads. can
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 인공 신경망을 이용하여 전력 부하를 예측하는 부하 예측 방법 및 장치를 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a load prediction method and apparatus for predicting a power load using an artificial neural network.
상기와 같은 문제점을 해결하기 위한 본 발명의 일 실시예에 따른, 부하 예측 방법은 전체 전력 데이터를 제1 주기마다 분할한 제1 입력 데이터를 수신하는 단계, 상기 전체 전력 데이터를 제2 주기마다 분할한 제2 입력 데이터를 수신하는 단계, 상기 제1 입력 데이터를 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하는 단계, 상기 제2 입력 데이터를 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하는 단계 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함할 수 있다.According to an embodiment of the present invention for solving the above problems, the load prediction method includes the steps of receiving first input data obtained by dividing total power data for each first period, and dividing the total power data for each second period receiving the second input data; inputting the first input data to a first artificial neural network to generate first output data; and inputting the second input data to a second artificial neural network to generate second output data It may include generating and predicting a load by performing processing on the first output data and the second output data.
여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)일 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be a Long Short Term Memory Network (LSTM).
여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 미리 학습이 수행될 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be previously trained.
여기서, 상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함할 수 있다.Here, the first input data may include power data between time A to A+F, and the first output data may include a load prediction value for time A+F+1.
여기서, 상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함할 수 있다.Here, the second input data includes power data between A+(M-1)*G and A+M*G time, and the second output data is a load prediction value of A+M*G+1 time. may include
여기서, 상기 부하를 예측하는 단계는, A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하는 단계를 포함할 수 있다.Here, in the predicting of the load, the first output data including the load predicted value of A+F+1 time and the second output data including the load predicted value of A+M*G+1 time and estimating the load of the A+F+1 time by performing a process for the A+F+1.
여기서, 상기 부하를 예측하는 단계는, 미리 기계 학습이 수행된 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함할 수 있다.Here, the predicting of the load may include predicting the load by performing, by the server, on which machine learning is performed in advance, processing on the first output data and the second output data.
여기서, 상기 기계 학습은, 로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행될 수 있다.Here, the machine learning may be performed based on a logistic regression algorithm.
여기서, 상기 기계 학습은, 상기 기계 학습에 대한 학습 모델을 생성하는 단계, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하는 단계 및 상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하는 단계를 통해 수행될 수 있다.Here, in the machine learning, generating a learning model for the machine learning, generating learning data based on the first output data and the second output data, and the learning model based on the learning data This may be performed through the step of changing the weight.
여기서, 상기 학습 모델은, 아래의 수학식을 포함하고,Here, the learning model includes the following equation,
여기에서, p는 확률 함수이고, 상기b는 미리 설정된 값이며, 는 미리 설정된 값이고, 는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 는 에 대한 가중치이며, 는 에 대한 가중치일 수 있다.Here, p is a probability function, b is a preset value, is a preset value, is data corresponding to the first output data among the learning data, is data corresponding to the second output data among the learning data, is is the weight for is may be a weight for .
본 발명의 다른 실시예에 따른 부하 예측 장치는 프로세서(processor), 상기 프로세서에 의해 실행되는 하나 이상의 명령들이 저장된 메모리(memory) 및 제1 인공 신경망, 제2 인공 신경망 및 서버를 포함할 수 있고, 상기 하나 이상의 명령들은, 전체 전력 데이터를 제1 주기마다 분할한 제1 입력 데이터를 수신하고, 상기 전체 전력 데이터를 제2 주기마다 분할한 제2 입력 데이터를 수신하고,A load prediction apparatus according to another embodiment of the present invention may include a processor, a memory in which one or more instructions executed by the processor are stored, and a first artificial neural network, a second artificial neural network, and a server, The one or more commands receive first input data obtained by dividing the total power data for every first period, receiving second input data obtained by dividing the total power data for every second period,
상기 제1 입력 데이터를 상기 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하고, 상기 제2 입력 데이터를 상기 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하고 그리고, 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행될 수 있다.inputting the first input data to the first artificial neural network to generate first output data, inputting the second input data to the second artificial neural network to generate second output data, and the first output data and performing processing on the second output data to predict a load.
여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)일 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be a Long Short Term Memory Network (LSTM).
여기서, 상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은, 미리 학습이 수행될 수 있다.Here, at least one of the first artificial neural network and the second artificial neural network may be pre-learning.
여기서, 상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함할 수 있다.Here, the first input data may include power data between time A to A+F, and the first output data may include a load prediction value for time A+F+1.
여기서, 상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함할 수 있다.Here, the second input data includes power data between A+(M-1)*G and A+M*G time, and the second output data is a load prediction value of A+M*G+1 time. may include
여기서, 상기 부하를 예측하는 경우, 상기 하나 이상의 명령들은, A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하도록 실행될 수 있다.Here, when predicting the load, the one or more commands may include the first output data including the load prediction value of A+F+1 time and the load prediction value of A+M*G+1 time. It may be executed to estimate the load of the A+F+1 time by performing processing on the second output data.
여기서, 상기 부하를 예측하는 경우, 상기 하나 이상의 명령은, 미리 기계 학습이 수행된 상기 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행될 수 있다.Here, when predicting the load, the one or more commands may be executed so that the server, on which machine learning has been performed in advance, performs processing on the first output data and the second output data to predict the load.
여기서, 상기 기계 학습은, 로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행될 수 있다.Here, the machine learning may be performed based on a logistic regression algorithm.
여기서, 상기 기계 학습을 수행하는 경우, 상기 하나 이상의 명령들은,Here, when performing the machine learning, the one or more instructions are
상기 기계 학습에 대한 학습 모델을 생성하고, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하고 그리고, 상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하도록 실행될 수 있다.generating a learning model for the machine learning, generating learning data based on the first output data and the second output data, and changing a weight of the learning model based on the learning data.
여기서, 상기 학습 모델은, 아래의 수학식을 포함하고,Here, the learning model includes the following equation,
여기에서, p는 확률 함수이고, 상기b는 미리 설정된 값이며, 는 미리 설정된 값이고, 는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 는 에 대한 가중치이며, 는 에 대한 가중치일 수 있다.Here, p is a probability function, b is a preset value, is a preset value, is data corresponding to the first output data among the learning data, is data corresponding to the second output data among the learning data, is is the weight for is may be a weight for .
본 발명에 의하면, 서로 다른 주기를 기초로 생성한 전력 데이터들을 기초로 부하를 예측하는 바, 정확한 부하 예측이 가능할 수 있다.According to the present invention, since the load is predicted based on the power data generated based on different periods, it is possible to accurately predict the load.
본 발명에 의하면 복수의 인공 신경망들은 기초로 부하를 예측하는 바 실시간으로 부하 예측이 가능할 수 있다.According to the present invention, a plurality of artificial neural networks may predict the load based on the load prediction in real time.
또한, 본 발명에 의하면 복수의 LSTM(Long Short Term Memory Network)를 기초로 출력 값을 생성하고 회귀 분석 알고리즘을 통해 출력 값에 대한 처리를 수행하여 부하를 예측 하는 바, 정확한 부하 예측이 가능할 수 있다.In addition, according to the present invention, an output value is generated based on a plurality of LSTMs (Long Short Term Memory Network) and the output value is processed through a regression analysis algorithm to predict the load, so accurate load prediction is possible. .
도 1은 본 발명의 일 실시예에 따른 전력 계통 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 전력 제어 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 부하 예측부의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공 신경망의 개념도이다.
도 5는 본 발명의 일 실시예에 따른 인공 신경망을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 인공 신경망 학습 방법의 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 기계 학습 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 부하 예측 방법의 흐름도이다.
도 9는 본 발명의 다른 실시예에 따른 전력 제어 장치의 블록도이다.1 is a conceptual diagram of a power grid system according to an embodiment of the present invention.
2 is a block diagram of a power control apparatus according to an embodiment of the present invention.
3 is a block diagram of a load predictor according to an embodiment of the present invention.
4 is a conceptual diagram of an artificial neural network according to an embodiment of the present invention.
5 is a conceptual diagram for explaining an artificial neural network according to an embodiment of the present invention.
6 is a flowchart of an artificial neural network learning method according to an embodiment of the present invention.
7 is a flowchart of a machine learning method according to an embodiment of the present invention.
8 is a flowchart of a load prediction method according to an embodiment of the present invention.
9 is a block diagram of a power control apparatus according to another embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
도 1은 본 발명의 일 실시예에 따른 전력 시스템의 개념도이다.1 is a conceptual diagram of a power system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 전력 시스템은 전력 생산 장치(110), 수용가(120) 및 전력 제어 장치(130)를 포함할 수 있다. 도면에는 전력 생산 장치(110) 및 전력 제어 장치(130)가 별개인 것으로 도시되었으나, 전력 생산 장치(110) 및 전력 제어 장치(130)는 하나의 장치에 포함될 수 있다. 전력 생산 장치(110)는 전력을 생산하여 수용가(120)에 공급할 수 있다. Referring to FIG. 1 , a power system according to an embodiment of the present invention may include a
수용가(120)는 전력을 전력 생산 장치(110)로부터 공급받아 소비할 수 있다. 도면에는 하나의 수용가(120)만을 도시하였으나, 이는 일 예시일 뿐이며 수용가(120)는 복수일 수 있다. 예를 들어, 수용가(120)는 가정, 빌딩 및 공장 등을 포함할 수 있으나, 이에 한정하지 아니한다. 수용가(120)는 소비 전력에 대한 정보를 전력 제어 장치(130)에 전송할 수 있다.The
전력 제어 장치(130) 소비 전력에 대한 정보를 수용가(120)로부터 수신할 수 있다. 전력 제어 장치(130)는 소비 전력에 대한 정보를 기초로 부하를 예측할 수 있다. 부하는 수용가(120)의 전력 부하일 수 있다. 한편, 전력 제어 장치(130)는 다음과 같이 구성될 수 있다.The
도 2는 본 발명의 일 실시예에 따른 전력 제어 장치의 블록도이다.2 is a block diagram of a power control apparatus according to an embodiment of the present invention.
도 2를 참조하면 전력 제어 장치(200)는 전력 데이터 생성부(210) 및 부하 예측부(220) 및 제어부(230)를 포함할 수 있다. 전력 데이터 생성부(210)는 소비 전력에 대한 정보를 기초로 전체 전력 데이터를 생성할 수 있다. 전력 데이터 생성부(210)는 소비 전력에 대한 정보를 시계열적으로 정렬하여 전체 전력 데이터를 생성할 수 있다.Referring to FIG. 2 , the
전력 데이터 생성부(210)는 전체 전력 데이터에 대한 전처리를 수행하여 제1 입력 데이터들 및 제2 입력 데이터들을 생성할 수 있다. 예를 들어, 전력 데이터 생성부(210)는 전체 전력 데이터를 제1 주기마다 분할하여 제1 입력 데이터들을 생성할 수 있다. 예를 들어, 제1 주기는 F일 수 있고, F는 168시간(1주일)일 수 있다. 제1 입력 데이터는 전체 전력 데이터 중 A 및 A+F 시간 사이의 전력 데이터를 포함할 수 있다.The
전력 데이터 생성부(210)는 전체 전력 데이터를 제2 주기마다 분할하여 제2 입력 데이터들을 생성할 수 있다. 예를 들어, 제2 주기는 G일 수 있고, G는 6일 수 있다. 제2 입력 데이터는 전체 전력 데이터 중 A+(M-1)*G 및 A+M*G시간 사이의 전력 데이터를 포함할 수 있다. 제1 입력 데이터가 A 및 A+168 시간 사이의 전력 데이터를 포함하고 G가 6인 경우, M은 0 내지 27일 수 있다.The
부하 예측부(220)는 제1 입력 데이터들 및 제2 입력 데이터들을 전력 데이터 생성부(210)로부터 수신할 수 있다. 부하 예측부(220)는 제1 입력 데이터들 및 제2 입력 데이터들을 기초로 부하를 예측할 수 있다. 부하 예측부(220)는 다음과 같이 구성될 수 있다.The
도 3은 본 발명의 일 실시예에 따른 부하 예측부의 블록도이다.3 is a block diagram of a load predictor according to an embodiment of the present invention.
도 3을 참조하면, 부하 예측부(300)는 도 2의 부하 예측부(220)와 동일하거나 유사하게 구성될 수 있다. 부하 예측부(300)는 제1 인공 신경망(310), 제2 인공 신경망(320), 후처리부(330)를 포함할 수 있다. 제1 인공 신경망(310) 및 제2 인공 신경망(330)은 LSTM(Long Short Term Memory network)일 수 있고, 후처리부(330)는 서버(server)일 수 있다.Referring to FIG. 3 , the load predicting unit 300 may be configured the same as or similarly to the
제1 인공 신경망(310)은 제1 입력 데이터 중 하나를 기초로 제1 출력 데이터를 생성할 수 있다. 또한, 제2 인공 신경망(320)은 제2 입력 데이터 중 하나를 기초로 제2 출력 데이터를 생성할 수 있다. 제1 인공 신경망(310) 및 제2 인공 신경망(320)은 다음과 같이 구성될 수 있다.The first artificial
도 4는 본 발명의 일 실시예에 따른 인공 신경망의 개념도이다.4 is a conceptual diagram of an artificial neural network according to an embodiment of the present invention.
도 4를 참조하면, 인공 신경망(400)은 도 3의 제1 인공 신경망(310) 및 제2 인공 신경망(320) 중 하나 일 수 있다. 인공 신경망(400)은 복수의 입력 레이어들(411 내지 413), 복수의 히든 레이어들(421 내지 423) 및 출력 레이어(431)를 포함할 수 있다.Referring to FIG. 4 , the artificial
제1 입력 레이어(411)는 제1 히든 레이어(421)와 연결될 수 있고, 제2 입력 레이어(412)는 제2 히든 레이어(422)와 연결될 수 있으며, 제N 입력 레이어(413)은 제N 히든 레이어(423)와 연결될 수 있다. 또한, 제N 히든 레이어(423)는 출력 레이어(431)와 연결될 수 있다. 인공 신경망(400)이 도 3의 제1 인공 신경망(310)인 경우, N은 F일 수 있고, F는 168일 수 있다. 도 3의 제2 인공 신경망(320)인 경우 N은 G일 수 있고, G는 6일 수 있다.The
복수의 입력 레이어들(411 내지 413)은 입력 데이터 중 일부를 데이터 생성부(예를 들어, 도 2의 데이터 생성부(210))로부터 수신할 수 있다. 인공 신경망(400)이 도 3의 제1 인공 신경망(310)인 경우 복수의 입력 레이어들(411 내지 413) 각각은 제1 입력 데이터 중 일부를 수신할 수 있다. 제1 입력 레이어(411)는 제1 입력 데이터 중 일부인 제1 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있고, 제2 입력 레이어(412)는 제1 입력 데이터 중 일부인 제2 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있으며, 제N 입력 레이어(413)는 제1 입력 데이터 중 일부인 제N 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있다. 여기에서, 제1 시간 전력 데이터는 A 및 A+1 시간 사이의 전력 데이터일 수 있고, 제2 시간 전력 데이터는 A+2 및 A+3 시간 사이의 전력 데이터일 수 있으며, 제N 시간 데이터는 A+F-1 및 A+F 시간 사이의 전력 데이터일 수 있다. F는 168일 수 있다.The plurality of input layers 411 to 413 may receive some of the input data from the data generator (eg, the
예를 들어, 인공 신경망(400)이 도 3의 제2 인공 신경망(320)인 경우 복수의 입력 레이어들(411 내지 413) 각각은 제2 입력 데이터 중 일부를 수신할 수 있다. 제1 입력 레이어(411)는 제2 입력 데이터 중 일부인 제1 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있고, 제2 입력 레이어(412)는 제2 입력 데이터 중 일부인 제2 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있으며, 제N 입력 레이어(413)는 제2 입력 데이터 중 일부인 제N 시간 전력 데이터를 데이터 생성부로부터 수신할 수 있다. 여기에서, 제1 시간 전력 데이터는 A 및 A+1 시간 사이의 전력 데이터일 수 있고, 제2 시간 전력 데이터는 A+1 및 A+2 시간 사이의 전력 데이터일 수 있으며, 제N 시간 데이터는 A+G-1 및 A+G 시간 사이의 전력 데이터일 수 있다. G는 6일 수 있다.For example, when the artificial
복수의 입력 레이어들(411 내지 413) 각각은 시간당 전력 데이터에 대한 처리를 수행하여 시간당 전력 행렬을 생성할 수 있다. 예를 들어, 제1 입력 레이어(411)는 제1 시간 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬()을 생성할 수 있고, 제2 입력 레이어(412)는 제2 시간 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬()을 생성할 수 있으며, 제N 입력 레이어(413)는 제N 시간 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬을 생성할 수 있다. Each of the plurality of input layers 411 to 413 may generate an hourly power matrix by processing the hourly power data. For example, the
예를 들어, 인공 신경망(400)이 도 3의 제1 인공 신경망인 경우, 제1 입력 레이어(411)는 A 및 A+1 시간 사이의 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬()을 생성할 수 있고, 제2 입력 레이어(412)는 A+1 및 A+2 시간 사이의 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬()을 생성할 수 있다. 인공 신경망(400)은 이러한 과정을 반복 수행할 수 있고, A+F-1 및 A+F 시간 사이의 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬()을 생성할 수 있다.For example, when the artificial
또한, 인공 신경망(400)이 도 3의 제2 인공 신경망인 경우, 제1 입력 레이어(411)는 A 및 A+1 시간 사이의 전력 데이터에 대한 처리를 수행하여 제1 시간 전력 행렬()을 생성할 수 있고, 제2 입력 레이어(412)는 A+1 및 A+2 시간 사이의 전력 데이터에 대한 처리를 수행하여 제2 시간 전력 행렬()을 생성할 수 있다. 인공 신경망(400)은 이러한 과정을 반복 수행할 수 있고, A+G-1 및 A+G 시간 사이의 전력 데이터에 대한 처리를 수행하여 제N 시간 전력 행렬()을 생성할 수 있다.In addition, when the artificial
복수의 입력 레이어들(411 내지 413) 각각은 시간당 전력 행렬을 복수의 히든 레이어(421 내지 432) 각각에 전송할 수 있다. 예를 들어, 제1 입력 레이어(411)는 제1 시간 전력 행렬()을 제1 히든 레이어(421)에 전송할 수 있고, 제2 입력 레이어(412)는 제2 시간 전력 행렬()을 제2 히든 레이어(422)에 전송할 수 있으며, 제N 입력 레이어(413)는 제N 시간 전력 행렬()을 제N 히든 레이어(423)에 전송할 수 있다.Each of the plurality of input layers 411 to 413 may transmit a power matrix per time to each of the plurality of
복수의 히든 레이어들(421 내지 423) 각각은 시간당 전력 행렬을 복수의 입력 레이어들(411 내지 413) 각각으로부터 수신할 수 있다. 예를 들어, 제1 히든 레이어(421)는 제1 시간 전력 행렬()을 제1 입력 레이어(411)로부터 수신할 수 있고, 제2 히든 레이어(422)는 제2 시간 전력 행렬()을 제2 입력 레이어(412)로부터 수신할 수 있으며, 제N 히든 레이어(423)는 제N 시간 전력 행렬()을 제N 입력 레이어(423)로부터 수신할 수 있다. 복수의 히든 레이어들(421 내지 423) 각각은 시간당 전력 행렬에 대한 처리를 수행하여 히든 행렬을 생성할 수 있다. 이를 상세히 설명하면 다음과 같다.Each of the plurality of
도 5는 본 발명의 일 실시예에 따른 인공 신경망을 설명하기 위한 개념도이다.5 is a conceptual diagram for explaining an artificial neural network according to an embodiment of the present invention.
도 5를 참조하면, 인공 신경망(500)은 히든 레이어(510)를 포함할 수 있다. 히든 레이어(510)는 도 4의 히든 레이어들(421 내지 423) 중 하나일 수 있다. 또한, Referring to FIG. 5 , the artificial neural network 500 may include a hidden layer 510 . The hidden layer 510 may be one of the
히든 레이어(510)는 제t-1 시간 상태 행렬 () 및 제t-1 시간 히든 행렬 ()를 입력 받을 수 있다. 여기에서, 상태 행렬은 각각의 시간에서 인공 신경망(500)의 상태를 나타내는 행렬일 수 있고, 전력 행렬 중 중요한 정보를 추출하기 위한 행렬일 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬()을 입력 레이어로부터 수신할 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬() 및 제t-1 시간 히든 행렬 ()에 대한 처리를 수행하여 t 시간에서의 제1 게이트 함수를 생성할 수 있다. 제1 게이트 함수는 제N-1 상태 행렬()에서 불필요한 정보를 지우기 위한 함수일 수 있다. 히든 레이어(510)는 다음 수학식 1을 기초로 제1 게이트웨이 함수를 생성할 수 있다.The hidden layer 510 is a t-1 time state matrix ( ) and the t-1 time hidden matrix ( ) can be entered. Here, the state matrix may be a matrix indicating the state of the artificial neural network 500 at each time, and may be a matrix for extracting important information from the power matrix. The hidden layer 510 is the t-th time power matrix ( ) can be received from the input layer. The hidden layer 510 is the t-th time power matrix ( ) and the t-1 time hidden matrix ( ) to generate the first gate function at time t. The first gate function is an N-1 th state matrix ( ) may be a function to delete unnecessary information. The hidden layer 510 may generate a first gateway function based on
수학식 1에서, 는 제1 게이트 함수일 수 있고, 는 시그모이드(sigmoid) 함수 및 렐루(LeLu) 함수 중 하나일 수 있으며, 는 제1 게이트 함수()의 가중치일 수 있으며, 는 제1 게이트 함수의 바이어스(bias)일 수 있다. 제1 게이트 함수()는 행렬 형태일 수 있다. 또한, 히든 레이어(510)는 제t 시간 전력 행렬() 및 제t-1 시간 히든 행렬 에 대한 처리를 수행하여 제2 게이트 함수를 생성할 수 있다. 제2 게이트 함수는 제t-1 시간 상태 행렬()에 중요한 정보를 삽입하기 위한 함수일 수 있다. 히든 레이어(510)는 다음 수학식 2를 기초로 제2 게이트 함수를 생성할 수 있다.In
수학식 2에서, 는 제2 게이트 함수일 수 있고, 는 제2 게이트 함수()의 가중치일 수 있으며, 는 제2 게이트 함수()의 바이어스일 수 있다. 또한, 제2 게이트 함수()는 행렬 형태일 수 있다. 또한, 히든 레이어(510)는 제t 시간 전력 행렬() 및 제t-1 시간 히든 행렬 에 대한 처리를 수행하여 제3 게이트 함수를 생성할 수 있다. 제3 게이트 함수는 제t 시간 상태 행렬을 생성하기 위해 필요한 임시 상태 행렬일 수 있다. 히든 레이어(510)는 다음 수학식 3을 기초로 제3 게이트 함수를 생성할 수 있다.In Equation 2, may be a second gate function, is the second gate function ( ) can be a weight of is the second gate function ( ) may be biased. Also, the second gate function ( ) may be in the form of a matrix. In addition, the hidden layer 510 is a t-th time power matrix ( ) and the t-1 time hidden matrix A third gate function may be generated by performing processing on . The third gate function may be a temporary state matrix necessary for generating the t-th time state matrix. The hidden layer 510 may generate a third gate function based on Equation 3 below.
수학식 3에서, 는 제3 게이트 함수일 수 있고, 는 제3 게이트 함수의 가중치일 수 있으며, 는 제3 게이트 함수의 바이어스일 수 있다. 히든 레이어(510)는 제t-1 시간 상태 행렬(), 제1 게이트 함수(), 제2 게이트 함수(), 및 제3 게이트 함수()에 대한 처리를 수행하여 제t 시간 상태 행렬을 생성할 수 있다. 히든 레이어(510)는 다음 수학식 4를 기초로 제t 시간 상태 행렬()을 생성할 수 있다.In Equation 3, may be a third gate function, may be the weight of the third gate function, may be a bias of the third gate function. The hidden layer 510 is a t-1 th time state matrix ( ), the first gate function ( ), the second gate function ( ), and the third gate function ( ) to generate a t-th time state matrix. The hidden layer 510 is a t-th time state matrix ( ) can be created.
히든 레이어(510)는 제t 시간 전력 행렬() 및 제t-1 시간 히든 행렬()에 대한 처리를 수행하여 제4 게이트 함수를 생성할 수 있다. 제4 게이트 함수는 제t 시간 히든 행렬을 생성하기 위해 필요한 행렬일 수 있다. 히든 레이어는 다음 수학식 5를 기초로 제4 게이트 함수를 생성할 수 있다.The hidden layer 510 is the t-th time power matrix ( ) and the t-1 time hidden matrix ( ) to generate a fourth gate function. The fourth gate function may be a matrix necessary to generate the t-th time hidden matrix. The hidden layer may generate a fourth gate function based on Equation 5 below.
수학식 5에서, 는 제4 게이트 함수일 수 있고, 는 제4 게이트 함수의 가중치일 수 있고, 는 제4 게이트 함수의 바이어스일 수 있다. 히든 레이어(510)는 제t 시간 전력 행렬(), 제t-1 시간 히든 행렬() 및 제4 게이트 함수에 대한 처리를 수행하여 제t 시간 히든 행렬()을 생성할 수 있다. 히든 레이어(510)는 다음 수학식 6을 기초로 제t 시간 히든 행렬()을 생성할 수 있다. 히든 레이어(510)는 제t 시간 상태 행렬() 및 제t 시간 히든 행렬() 해당 히든 레이어와 연결된 다음 히든 레이어에 전송할 수 있다.In Equation 5, may be a fourth gate function, may be the weight of the fourth gate function, may be a bias of the fourth gate function. The hidden layer 510 is the t-th time power matrix ( ), the t-1 time hidden matrix ( ) and the fourth gate function by performing the processing on the t-th time hidden matrix ( ) can be created. The hidden layer 510 is the t-th time hidden matrix ( ) can be created. The hidden layer 510 is a t-th time state matrix ( ) and the t-time hidden matrix ( ) can be transmitted to the next hidden layer connected to the corresponding hidden layer.
예를 들어, 히든 레이어(510)가 도 4의 제2 히든 레이어(422)인 경우, 히든 레이어(510)는 제2 입력 레이어(예를 들어, 도 4의 제2 입력 레이어(412))로부터 제2 시간 전력 행렬()을 수신할 수 있고, 제1 히든 레이어(예를 들어, 도 4의 제1 히든 레이어(421))로부터 제1 시간 상태 행렬() 및 제1 시간 히든 행렬()을 수신할 수 있다. 히든 레이어(510)는 제2 시간 전력 행렬(), 제1 시간 상태 행렬() 및 제1 시간 히든 행렬()에 대한 처리를 수행하여 제2 시간 상태 행렬() 및 제2 시간 히든 행렬()을 생성할 수 있다. 히든 레이어(510)는 제2 시간 상태 행렬() 및 제2 시간 히든 행렬()을 제3 히든 레이어에 전송할 수 있다.For example, when the hidden layer 510 is the second
인공 신경망(500)은 이러한 과정을 반복 수행하여 마지막 히든 행렬을 출력 레이어(예를 들어, 도 4의 출력 레이어(431))에 전송할 수 있다. 예를 들어, 히든 레이어(510)가 도 4의 제N 히든 레이어(423)인 경우, 히든 레이어(510)는 제N 입력 레이어(예를 들어, 도 4의 제N 입력 레이어(413))로부터 제N 시간 전력 행렬()을 수신할 수 있고, 제N-1 히든 레이어(예를 들어, 도 4의 제N-1 히든 레이어(421))로부터 제N-1 시간 상태 행렬() 및 제1 시간 히든 행렬()을 수신할 수 있다. 히든 레이어(510)는 제N 시간 전력 행렬(), 제N-1 시간 상태 행렬() 및 제N-1 시간 히든 행렬()에 대한 처리를 수행하여 제N 시간 히든 행렬()을 생성할 수 있다. 히든 레이어(510)는 제N 시간 히든 행렬()을 출력 레이어에 전송할 수 있다. 히든 레이어(510)가 도 3의 제1 인공 신경망의 히든 레이어인 경우, 제N 시간 히든 행렬()은 A+F-1 및 A+F 시간 사이의 전력 데이터에 대한 정보를 포함하는 제N 시간 전력 행렬() 및 A+F-2 및 A+F-1 시간 사이의 전력 데이터인()을 기초로 생성된 제N-1 시간 상태 행렬() 및 제N-1 시간 히든 행렬()를 기초로 생성될 수 있다. 또한, 히든 레이어(510)가 도 3의 제2 인공 신경망의 히든 레이어인 경우, 제N 시간 히든 행렬()은 A+G-1 및 A+G 시간 사이의 전력 데이터에 대한 정보를 포함하는 제N 시간 전력 행렬() 및 4 및 5 시간 사이의 전력 데이터인()을 기초로 생성된 제N-1 시간 상태 행렬() 및 제N-1 시간 히든 행렬()를 기초로 생성될 수 있다.The artificial neural network 500 may repeat this process to transmit the last hidden matrix to the output layer (eg, the
다시 도 4를 참조하면, 출력 레이어(431)는 제N 시간 히든 행렬()을 제N 히든 레이어(423)로부터 수신할 수 있다. 출력 레이어(431)는 제N 시간 히든 행렬()을 기초로 출력 데이터를 생성할 수 있다. 출력 레이어(431)는 다음 수학식 6을 기초로 출력 데이터를 생성할 수 있다.Referring back to FIG. 4 , the
수학식 6에서 는 출력 데이터일 수 있고, 는 소프트맥스 함수일 수 있으며, 는 제t 시간 히든 행렬()의 크기를 조절하기 위한 행렬일 수 있다. 제t 시간 히든 행렬()이 제N 시간 히든 행렬()인 경우, 는 일 수 있다. 또한, 는 선형 함수일 수 있으나 이는 일 예시일 뿐이며 이에 한정하지 아니한다.in Equation 6 can be output data, can be a softmax function, is the t-time hidden matrix ( ) may be a matrix for adjusting the size of . t-time hidden matrix( ) is the N-th time hidden matrix ( ), if is can be Also, may be a linear function, but this is only an example and is not limited thereto.
예를 들어, 출력 레이어(431)가 도 3의 제1 인공 신경망의 출력 레이어인 경우, 출력 레이어(431)는 제1 출력 데이터를 생성할 수 있다. 출력 레이어가(431)가 도 3의 제2 인공 신경망의 출력 레이어인 경우, 출력 레이어(431)는 제2 출력 데이터를 생성할 수 있다. 예를 들어, 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 제1 출력 데이터는 A+F+1 시간에서의 부하 예측 값을 포함할 수 있다. 또한, 제2 입력 데이터가 A 및 A+G 시간 사이의 전력 데이터를 포함하는 경우 제2 출력 데이터는 A+G+1 시간에서의 부하 예측 값을 포함할 수 있다. 한편, 제1 입력 데이터가 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 제2 인공 신경망은 A+M*G 가 A+F와 동일해질 때까지 제2 출력 데이터를 반복하여 생성할 수 있다. 즉, F가 168이고, G가 6인 경우, 제2 인공 신경망은 M이 1 내지 28인 경우의 제2 입력 데이터들 각각에 대한 제2 출력 데이터들을 생성할 수 있다.For example, when the
한편, 도 4의 인공 신경망(400)은 미리 학습될 수 있으며, 학습 방법은 다음과 같을 수 있다.Meanwhile, the artificial
도 6은 본 발명의 일 실시예에 따른 인공 신경망 학습 방법의 흐름도이다.6 is a flowchart of an artificial neural network learning method according to an embodiment of the present invention.
인공 신경망(예를 들어, 도 4의 인공 신경망(400))은 학습 모델을 생성할 수 있다(S610). 인공 신경망은 도 5의 수학식 1 내지 6과 같은 학습 모델을 생성할 수 있다.The artificial neural network (eg, the artificial
인공 신경망은 학습 데이터를 생성할 수 있다(S620). 인공 신경망은 입력 데이터에 포함된 전력 데이터를 기초로 학습 데이터를 생성할 수 있다. 학습 데이터는 복수의 데이터 셋들을 포함할 수 있다. 인공 신경망은 데이터 셋들 중 하나를 검증 셋(test set)으로 나머지를 트레이닝 셋(training set)으로 분류할 수 있다. 데이터 셋들 중 하나를 검증 셋으로 나머지를 트레이닝 셋으로 분류할 수 있다.The artificial neural network may generate learning data (S620). The artificial neural network may generate training data based on power data included in the input data. The training data may include a plurality of data sets. The artificial neural network may classify one of the data sets as a test set and the rest as a training set. One of the data sets may be classified as a validation set and the rest as a training set.
예를 들어, 인공 신경망이 제1 인공 신경망(예를 들어, 도 3의 제1 인공 신경망(310))인 경우, 인공 신경망은 제1 입력 데이터를 기초로 제1 학습 데이터를 생성할 수 있다. 제1 학습 데이터는 복수의 제1 트레이닝 셋들 및 하나의 제1 검증 셋을 포함할 수 있다. 인공 신경망이 제2 인공 신경망(예를 들어, 도 의 제2 인공 신경망(320))인 경우, 인공 신경망은 제2 입력 데이터를 기초로 제2 학습 데이터를 생성할 수 있다. 제2 학습 데이터는 복수의 제2 트레이닝 셋들 및 하나의 제2 검증 셋을 포함할 수 있다.For example, when the artificial neural network is the first artificial neural network (eg, the first artificial
인공 신경망은 학습 데이터를 기초로 학습을 수행할 수 있다(S630). 인공 신경망은 트레이닝 셋을 기초로 학습을 수행할 수 있다. 인공 신경망은 트레이닝 셋들을 수신하여, 트레이닝 셋들 각각에 대한 출력 값 생성할 수 있다. 인공 신경망은 트레이닝 셋들의 출력 값 각각을 실제 출력 값 각각과 비교하는 방식으로 학습을 수행할 수 있다. 인공 신경망은 다음 수학식 7의 MSE(Mean of Squared Error) 손실 함수를 기초로 학습을 수행할 수 있다.The artificial neural network may perform learning based on the learning data (S630). The artificial neural network may perform learning based on the training set. The artificial neural network may receive the training sets and generate an output value for each of the training sets. The artificial neural network may perform learning by comparing each of the output values of the training sets with each of the actual output values. The artificial neural network may perform learning based on the mean of squared error (MSE) loss function of Equation 7 below.
수학식 7에서, 는 오차들의 평균 값일 수 있고, 는 트레이닝 셋들 각각의 출력 값일 수 있으며, 는 실제 출력 값일 수 있다. 즉, 인공 신경망은 트레이닝 셋들 각각의 출력 값() 및 이에 대응하는 실제 출력 값()의 차이의 평균을 연산하는 방식으로, 오차들의 평균 값()을 연산할 수 있다. 인공 신경망은 학습 결과를 기초로 도 5의 제1 게이트 함수의 가중치(), 제2 게이트 함수의 가중치(), 제3 게이트 함수의 가중치(), 제4 게이트 함수의 가중치()에 대한 업데이트를 수행할 수 있다. 또한, 인공 신경망은 도 5의 제t 시간 히든 행렬()의 크기를 조절하기 위한 행렬()에 대한 업데이트를 수행할 수 있다. 인공 신경망은 학습을 반복 수행하여, 제1 트레이닝 셋들 각각의 출력 값()과 실제 출력 값()과의 오차를 최소화 하는 방식으로 학습을 수행할 수 있다.In Equation 7, may be the average value of the errors, may be the output value of each of the training sets, may be an actual output value. That is, the artificial neural network uses the output value of each of the training sets ( ) and the corresponding actual output value ( ), the average value of the errors ( ) can be calculated. The artificial neural network is based on the learning result, the weight of the first gate function in FIG. 5 ( ), the weight of the second gate function ( ), the weight of the third gate function ( ), the weight of the fourth gate function ( ) can be updated. In addition, the artificial neural network is the t-th time hidden matrix ( ) to adjust the size of the matrix ( ) can be updated. The artificial neural network repeatedly performs learning to obtain an output value of each of the first training sets ( ) and the actual output value ( ) can be learned in a way that minimizes the error with
예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 인공 신경망은 제1 트레이닝 셋들 각각의 출력 값()을 획득할 수 있다. 인공 신경망은 제1 트레이닝 셋들 각각의 출력 값()과 실제 출력 값()과의 오차를 연산할 수 있고, 오차들의 평균 값을 연산할 수 있다. 인공 신경망은 오차들의 평균 값()을 최소화하는 방식으로 학습을 수행할 수 있다. 또한, 인공 신경망이 제 2인공 신경망인 경우, 인공 신경망은 제2 트레이닝 셋들 각각의 출력 값()을 획득할 수 있다. 인공 신경망은 제2 트레이닝 셋들 각각의 출력 값()과 실제 출력 값()과의 오차를 연산할 수 있고, 오차들의 평균 값을 연산할 수 있다. 인공 신경망은 오차들의 평균 값()을 최소화하는 방식으로 학습을 수행할 수 있다.For example, when the artificial neural network is the first artificial neural network, the artificial neural network uses an output value ( ) can be obtained. The artificial neural network is an output value of each of the first training sets ( ) and the actual output value ( ) can be calculated, and the average value of the errors can be calculated. The artificial neural network is the average value of the errors ( ) can be learned in a way that minimizes the In addition, when the artificial neural network is the second artificial neural network, the artificial neural network outputs each of the second training sets ( ) can be obtained. The artificial neural network is an output value of each of the second training sets ( ) and the actual output value ( ) can be calculated and the average value of the errors can be calculated. The artificial neural network is the average value of the errors ( ) can be learned in a way that minimizes the
인공 신경망은 학습 수행 결과에 대한 검증을 수행할 수 있다. 인공 신경망은 검증 셋을 기초로 학습 수행 결과에 대한 검증을 수행할 수 있다. 즉, 인공 신경망은 학습 수행 결과에 대한 검증을 수행하여 업데이트 된 제1 게이트 함수의 가중치(), 제2 게이트 함수의 가중치(), 제3 게이트 함수의 가중치() 및 제4 게이트 함수의 가중치()를 검증할 수 있다.The artificial neural network may verify the learning performance result. The artificial neural network may verify the learning performance result based on the verification set. That is, the artificial neural network performs validation on the learning performance result and updates the weight of the first gate function ( ), the weight of the second gate function ( ), the weight of the third gate function ( ) and the weight of the fourth gate function ( ) can be verified.
인공 신경망은 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 학습 수행 결과에 대한 검증을 수행할 수 있다. 예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 제1 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. 또한, 인공 신경망이 제2 인공 신경망인 경우, 제2 검증 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. The artificial neural network may verify the learning performance result by comparing the output value of the verification set with the actual output value. For example, when the artificial neural network is the first artificial neural network, the validation may be performed by comparing the output value of the first validation set with the actual output value. Also, when the artificial neural network is the second artificial neural network, the validation may be performed by comparing the output value of the second validation set with the actual output value.
인공 신경망은 테스트 셋을 기초로 학습 수행 결과를 테스트할 수 있다. 인공 신경망은 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 학습 수행 결과에 대한 테스트를 수행할 수 있다. 예를 들어, 인공 신경망이 제1 인공 신경망인 경우, 제1 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다. 또한, 인공 신경망이 제2 인공 신경망인 경우, 제2 테스트 셋의 출력 값을 실제 출력 값과 비교하는 방식으로 검증을 수행할 수 있다.The artificial neural network may test the learning performance result based on the test set. The artificial neural network may perform a test on the learning performance result by comparing the output value of the test set with the actual output value. For example, when the artificial neural network is the first artificial neural network, verification may be performed by comparing an output value of the first test set with an actual output value. Also, when the artificial neural network is the second artificial neural network, verification may be performed by comparing the output value of the second test set with the actual output value.
다시 도 3을 참조하면, 후처리부(330)는 제1 출력 데이터를 제1 인공 신경망(310)으로부터 수신할 수 있다. 또한, 후처리부(330)는 제2 출력 데이터를 제2 인공 신경망(320)으로부터 수신할 수 있다. 후처리부(330)는 제1 입력 데이터 및 제2 입력 데이터에 대한 처리를 수행하여 부하를 예측할 수 있고, 부하 예측 값을 생성할 수 있다. 예를 들어, 제1 입력 데이터가 A 및 A+F 시간 사이의 전력 데이터를 포함하는 경우, 후처리부(330)는 A+F+1 시간에서의 부하를 예측할 수 있고, 부하 예측 값을 생성할 수 있다. 후처리부(330)는 부하 예측 값을 제어부(예를 들어, 도 2의 제어부(230))에 전송할 수 있다. 한편, 후처리부(330)는 미리 기계 학습을 수행할 수 있다. 후처리부(330)는 로지스틱 회귀(logistic regression) 알고리즘을 기초로 기계 학습을 수행할 수 있다. 후처리부(330)는 다음과 같은 방법으로 기계 학습을 수행할 수 있다.Referring back to FIG. 3 , the
도 7은 본 발명의 일 실시예에 따른 기계 학습 방법의 흐름도이다.7 is a flowchart of a machine learning method according to an embodiment of the present invention.
도 7을 참조하면, 후처리부(예를 들어, 도 3의 후처리부(330))는 학습 모델을 생성할 수 있다(S710). 후처리부는 로지스틱 회귀 알고리즘을 기초로 기초로 다음 수학식 8에 따른 오즈(odds)를 생성할 수 있다.Referring to FIG. 7 , the post-processing unit (eg, the
수학식 8에서, p는 학습 데이터가 첨두 값를 포함할 확률일 수 있다. 첨두 값은 부하의 최대 값일 수 있다. 후처리부는 수학식 8의 오즈에 대한 로그 연산을 수행하여 다음 수학식 9와 같은 로그 오즈(log odds)를 생성할 수 있다.In Equation 8, p may be a probability that the training data includes a peak value. The peak value may be the maximum value of the load. The post-processing unit may perform a log operation on the odds of Equation 8 to generate log odds as shown in Equation 9 below.
수학식 9에서, l은 로그 오즈일 수 있고, b는 미리 설정된 값일 수 있다. 예를 들어, b는 10일 수 있다. 한편, 로그 오즈는 다음 수학식 10과 같이 나타낼 수 있다.In Equation 9, l may be a log odds, and b may be a preset value. For example, b may be 10. Meanwhile, the log odds can be expressed as in Equation 10 below.
수학식 10에서, 는 미리 설정된 값일 수 있고, 는 학습 데이터 중 제1 출력 데이터에 해당하는 데이터일 수 있으며, 는 학습 데이터 중 제2 출력 데이터에 해당하는 데이터일 수 있고, 는 에 대한 가중치일 수 있으며, 는 에 대한 가중치일 수 있다. 후처리부는 수학식 10을 기초로 후처리부가 부하를 예측할 확률 함수를 생성할 수 있다. 후처리부가 생성하는 확률 함수()는 다음 수학식 11과 같을 수 있다.In Equation 10, may be a preset value, may be data corresponding to the first output data among the training data, may be data corresponding to the second output data among the training data, is can be a weight for is may be a weight for . The post-processor may generate a probability function for predicting the load by the post-processing unit based on Equation (10). The probability function generated by the post-processing unit ( ) may be as in Equation 11 below.
후처리부는 학습 데이터를 생성할 수 있다(S720). 후처리부는 제1 출력 데이터 및 제2 출력 데이터를 기초로 학습 데이터를 생성할 수 있다. 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 대한 합산을 수행하고, 이를 분할하는 방식으로 학습 데이터를 생성할 수 있다. 후처리부는 제1 출력 데이터에 포함된 예측 값 및 제2 출력 데이터에 포함된 예측 값을 U를 주기로 하여 분류할 수 있다. 예를 들어, U는 24일 수 있다. 즉, 후처리부는 1일을 주기로 하여 제1 출력 데이터 및 제2 출력 데이터를 분류할 수 있다.The post-processing unit may generate training data (S720). The post-processing unit may generate training data based on the first output data and the second output data. The post-processing unit may generate the training data by performing summing on the first output data and the second output data and dividing them. The post-processing unit may classify the predicted values included in the first output data and the predicted values included in the second output data with U as a period. For example, U may be 24. That is, the post-processing unit may classify the first output data and the second output data with a cycle of one day.
후처리부는 기계 학습을 수행할 수 있다(S730). 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 첨두 값이 포함되어 있는지 판단할 수 있다. 후처리부는 첨두 값이 포함되어 있는 경우, P가 1 값을 출력할 수 있도록 기계 학습을 수행할 수 있다. 후처리부는 에 대한 가중치인 및 에 대한 가중치인 를 변경하는 방식으로 학습을 수행할 수 있다.The post-processing unit may perform machine learning (S730). The post-processing unit may determine whether a peak value is included in the first output data and the second output data. The post-processing unit may perform machine learning so that P outputs a value of 1 when a peak value is included. post-processing unit weight for and weight for Learning can be performed by changing the
다시 도 2를 참조하면, 제어부(230)는 부하 예측 값을 후처리부(예를 들어, 도 3의 후처리부(330))로부터 수신할 수 있다. 제어부(230)는 부하 예측 값을 기초로 전력 생산 장치(예를 들어, 도 1의 전력 생산 장치(110))의 전력 생산량에 대한 제어를 수행할 수 있다.Referring back to FIG. 2 , the
도 8은 본 발명의 일 실시예에 따른 부하 예측 방법의 흐름도이다.8 is a flowchart of a load prediction method according to an embodiment of the present invention.
도 8을 참조하면, 부하 예측부(예를 들어, 도 2의 부하 예측부(220)는 제1 입력 데이터 및 제2 입력 데이터를 데이터 생성부(예를 들어, 도 2의 데이터 생성부(210)로부터 수신할 수 있다(S810). 제1 입력 데이터는 전체 전력 데이터 중 제1 주기 동안의 전력 데이터를 포함할 수 있다. 예를 들어, 제1 주기는 F일 수 있고, 제1 입력 데이터는 전체 전력 데이터 중 A 및 A+F 시간 사이의 전력 데이터를 포함할 수 있다. 제2 입력 데이터는 전체 전력 데이터 중 제2 주기 동안의 전력 데이터를 포함할 수 있다. 예를 들어, 제2 주기는 G시간일 수 있고, 제2 입력 데이터는 전체 전력 데이터 중 A+(M-1)*G 및 A+M*G 시간 사이의 전력 데이터를 포함할 수 있다. 여기에서, M은 1 내지 28 중 하나일 수 있다.Referring to FIG. 8 , the load prediction unit (eg, the
부하 예측부는 제1 입력 데이터를 기초로 제1 출력 데이터를 생성할 수 있다(S820). 부하 예측부의 제1 인공 신경망(예를 들어, 도 3의 제1 인공 신경망(310))은 제1 입력 데이터를 기초로 제1 출력 데이터를 생성할 수 있다. 제1 인공 신경망은 부하 예측부의 후처리부(예를 들어, 도 3의 후처리부(330))에 제1 출력 데이터를 전송할 수 있다. 부하 에측부는 제1 입력 데이터를 기초로 제2 출력 데이터를 생성할 수 있다(S830). 부하 예측부의 제2 인공 신경망(예를 들어, 도 3의 제2 인공 신경망(320))은 제2 입력 데이터를 기초로 제2 출력 데이터를 생성할 수 있다. 제2 인공 신경망은 후처리부에 제2 출력 데이터를 전송할 수 있다.The load predictor may generate first output data based on the first input data ( S820 ). The first artificial neural network (eg, the first artificial
부하 예측부는 제1 출력 데이터 및 제2 출력 데이터를 기초로 부하를 예측할 수 있다(S840). 후처리부는 제1 출력 데이터를 제1 인공 신경망으로부터 수신할 수 있다. 후처리부는 제2 출력 데이터를 제2 인공 신경망으로부터 수신할 수 있다. 후처리부는 제1 출력 데이터 및 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측할 수 있다. 예를 들어, 제1 출력 데이터가 A 및 A+F 시간 사이의 제1 입력 데이터를 기초로 생성되고, 제2 출력 데이터가 A+M*G 및 A+(M+1)*G 시간 사이의 제2 입력 데이터를 기초로 생성되는 경우, 부하 예측부는 A+F+1 시간에서의 부하를 예측할 수 있다. 한편, 전력 제어 장치는 통신 노드일 수 있고, 다음과 같이 구성될 수 있다.The load predictor may predict a load based on the first output data and the second output data (S840). The post-processing unit may receive the first output data from the first artificial neural network. The post-processing unit may receive the second output data from the second artificial neural network. The post-processing unit may predict a load by processing the first output data and the second output data. For example, first output data is generated based on first input data between times A and A+F, and second output data is generated based on first input data between times A+M*G and A+(M+1)*G 2 When generated based on the input data, the load predictor may predict the load at time A+F+1. Meanwhile, the power control device may be a communication node, and may be configured as follows.
도 9는 본 발명의 다른 실시예에 따른 전력 제어 장치의 블록도이다.9 is a block diagram of a power control apparatus according to another embodiment of the present invention.
도 9를 참조하면 전력 제어 장치(900)는 프로세서(910), 메모리(920), 송신 모듈(930) 및 수신 모듈(940)을 포함할 수 있다. 또한, 전력 제어 장치(900)는 저장 장치(950)등을 더 포함할 수 있다. 전력 제어 장치(900)에 포함된 각각의 구성요소들은 버스(bus)에 의해 연결되어 서로 통신을 수행할 수 있다.Referring to FIG. 9 , the
다만, 전력 제어 장치(900)에 포함된 각각의 구성요소들은 공통 버스(960)가 아니라, 프로세서(910)를 중심으로 개별 인터페이스 또는 개별 버스를 통하여 연결될 수도 있다. 예를 들어, 프로세서(910)는 메모리(920), 송신 모듈(930), 수신 모듈(940) 및 저장 장치(950)중 적어도 하나와 전용 인터페이스를 통하여 연결될 수도 있다.However, each of the components included in the
프로세서(910)는 메모리(920) 및 저장 장치(950) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(910)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(920) 및 저장 장치(950) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(920)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. example The methods according to the invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.
컴퓨터 판독 가능 매체의 예에는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media include hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to the above embodiments, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. will be able
Claims (20)
상기 전체 전력 데이터 중 제1 주기동안의 전력 데이터인 제1 입력 데이터를 수신하는 단계;
상기 전체 전력 데이터 중 제2 주기동안의 전력 데이터인 제2 입력 데이터를 수신하는 단계;
상기 제1 입력 데이터를 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하는 단계;
상기 제2 입력 데이터를 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하는 단계; 및
상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 상기 수용가의 전력 부하를 예측하는 단계를 포함하고,
상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고 상기 제1 주기는 F 시간이고,
상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 주기는 G 시간이고, G는 F보다 작으며,
상기 부하를 예측하는 단계는,
미리 기계 학습이 수행된 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하는 단계를 포함하고,
상기 기계 학습은,
상기 기계 학습에 대한 학습 모델을 생성하는 단계;
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하는 단계; 및
상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하는 단계를 통해 수행되며,
상기 학습 모델은, 아래의 수학식을 포함하고,
여기에서, 상기 p는 확률 함수이고, 상기 b는 미리 설정된 값이며, 상기 는 미리 설정된 값이고, 상기 는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 상기 는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 상기 는 상기 에 대한 가중치이며, 상기 는 상기 에 대한 가중치인, 부하 예측 방법.generating total power data by arranging information on power consumption received from consumers in time series;
receiving first input data that is power data for a first period among the total power data;
receiving second input data, which is power data for a second period of the total power data;
generating first output data by inputting the first input data into a first artificial neural network;
generating second output data by inputting the second input data into a second artificial neural network; and
Predicting the power load of the consumer by performing processing on the first output data and the second output data,
The first input data includes power data between A to A+F time and the first period is F time,
the second input data includes power data between A+(M-1)*G and A+M*G time, the second period is G time, G is less than F;
Predicting the load comprises:
Predicting a load by performing processing on the first output data and the second output data by a server on which machine learning has been performed in advance,
The machine learning is
generating a learning model for the machine learning;
generating learning data based on the first output data and the second output data; and
It is performed through the step of changing the weight of the learning model based on the learning data,
The learning model includes the following equation,
Here, p is a probability function, b is a preset value, and is a preset value, and is data corresponding to the first output data among the learning data, is data corresponding to the second output data among the training data, and is said is the weight for , and is said A method of load prediction, which is a weight for .
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)인, 부하 예측 방법.The method according to claim 1,
At least one of the first artificial neural network and the second artificial neural network is a Long Short Term Memory network (LSTM).
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 미리 학습이 수행된, 부하 예측 방법.The method according to claim 1,
At least one of the first artificial neural network and the second artificial neural network is pre-trained, load prediction method.
상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함하는, 부하 예측 방법.The method according to claim 1,
The first output data includes a load prediction value of A+F+1 time, the load prediction method.
상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함하는, 부하 예측 방법.The method according to claim 1,
The second output data includes a load prediction value of A+M*G+1 time, the load prediction method.
상기 부하를 예측하는 단계는,
A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하는 단계를 포함하는, 부하 예측 방법.The method according to claim 1,
Predicting the load comprises:
By processing the first output data including the load prediction value of A+F+1 time and the second output data including the load prediction value of A+M*G+1 time, the A+F A load prediction method comprising the step of estimating the load of +1 hour.
상기 기계 학습은,
로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행되는, 부하 예측 방법.The method according to claim 1,
The machine learning is
A load prediction method, performed based on a logistic regression algorithm.
상기 프로세서에 의해 실행되는 하나 이상의 명령들이 저장된 메모리(memory); 및
제1 인공 신경망, 제2 인공 신경망 및 서버를 포함하며,
상기 하나 이상의 명령들은,
수용가로부터 수신한 소비 전력에 대한 정보를 시계열적으로 정렬하여 전체 전력 데이터를 생성하고;
상기 전체 전력 데이터 중 제1 주기동안의 전력 데이터인 제1 입력 데이터를 수신하고;
상기 전체 전력 데이터 중 제2 주기동안의 전력 데이터인 제2 입력 데이터를 수신하고;
상기 제1 입력 데이터를 상기 제1 인공 신경망에 입력하여 제1 출력 데이터를 생성하고;
상기 제2 입력 데이터를 상기 제2 인공 신경망에 입력하여 제2 출력 데이터를 생성하고; 그리고,
상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 상기 수용가의 전력 부하를 예측하도록 실행되고,
상기 제1 입력 데이터는 A 내지 A+F 시간 사이의 전력 데이터를 포함하고, 상기 제1 주기는 F 시간이고,
상기 제2 입력 데이터는 A+(M-1)*G 내지 A+M*G 시간 사이의 전력 데이터를 포함하고, 상기 제2 주기는 G 시간이고, G는 F보다 작으며,
상기 부하를 예측하는 경우,
상기 하나 이상의 명령들은,
미리 기계 학습이 수행된 상기 서버가 상기 제1 출력 데이터 및 상기 제2 출력 데이터에 대한 처리를 수행하여 부하를 예측하도록 실행되고,
상기 기계 학습을 수행하는 경우,
상기 하나 이상의 명령들은,
상기 기계 학습에 대한 학습 모델을 생성하고;
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 기초로 학습 데이터를 생성하고; 그리고,
상기 학습 데이터를 기초로 상기 학습 모델의 가중치를 변경하도록 실행되며,
상기 학습 모델은, 아래의 수학식을 포함하고,
여기에서, 상기 p는 확률 함수이고, 상기 b는 미리 설정된 값이며, 상기 는 미리 설정된 값이고, 상기 는 상기 학습 데이터 중 상기 제1 출력 데이터에 해당하는 데이터이며, 상기 는 상기 학습 데이터 중 상기 제2 출력 데이터에 해당하는 데이터이고, 상기 는 상기 에 대한 가중치이며, 상기 는 상기 에 대한 가중치인, 부하 예측 장치.processor;
a memory in which one or more instructions executed by the processor are stored; and
It includes a first artificial neural network, a second artificial neural network, and a server,
the one or more instructions,
generating total power data by arranging information on power consumption received from consumers in time series;
receiving first input data that is power data for a first period among the total power data;
receiving second input data, which is power data for a second period among the total power data;
inputting the first input data to the first artificial neural network to generate first output data;
inputting the second input data to the second artificial neural network to generate second output data; And,
and perform processing on the first output data and the second output data to predict the power load of the consumer;
The first input data includes power data between A to A+F time, the first period is F time,
the second input data includes power data between A+(M-1)*G and A+M*G time, the second period is G time, G is less than F;
When predicting the load,
the one or more instructions,
The server, on which machine learning has been performed in advance, is executed to predict a load by processing the first output data and the second output data,
When performing the above machine learning,
the one or more instructions,
create a learning model for the machine learning;
generate training data based on the first output data and the second output data; And,
is executed to change the weight of the learning model based on the learning data,
The learning model includes the following equation,
Here, p is a probability function, b is a preset value, and is a preset value, and is data corresponding to the first output data among the learning data, is data corresponding to the second output data among the training data, and is said is the weight for , and is said The load prediction device, which is a weight for .
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은 LSTM(Long Short Term Memory network)인, 부하 예측 장치.12. The method of claim 11,
At least one of the first artificial neural network and the second artificial neural network is a Long Short Term Memory network (LSTM).
상기 제1 인공 신경망 및 상기 제2 인공 신경망 중 하나 이상은, 미리 학습이 수행된, 부하 예측 장치.12. The method of claim 11,
At least one of the first artificial neural network and the second artificial neural network is pre-learning, a load prediction apparatus.
상기 제1 출력 데이터는 A+F+1 시간의 부하 예측 값을 포함하는, 부하 예측 장치.12. The method of claim 11,
The first output data includes a load prediction value of A+F+1 time, the load prediction device.
상기 제2 출력 데이터는 A+M*G+1 시간의 부하 예측 값을 포함하는, 부하 예측 장치.12. The method of claim 11,
The second output data includes a load prediction value of A+M*G+1 time, the load prediction device.
상기 부하를 예측하는 경우,
상기 하나 이상의 명령들은,
A+F+1 시간의 부하 예측 값을 포함하는 상기 제1 출력 데이터 및 A+M*G+1 시간의 부하 예측 값을 포함하는 상기 제2 출력 데이터에 대한 처리를 수행하여, 상기 A+F+1 시간의 부하를 예측하도록 실행되는, 부하 예측 장치.12. The method of claim 11,
When predicting the load,
the one or more instructions,
By processing the first output data including the load prediction value of A+F+1 time and the second output data including the load prediction value of A+M*G+1 time, the A+F A load prediction device, which is executed to predict the load of +1 time.
상기 기계 학습은,
로지스틱 회귀 분석(logistic regression) 알고리즘을 기초로 수행되는, 부하 예측 장치.12. The method of claim 11,
The machine learning is
A load prediction device that is performed based on a logistic regression algorithm.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200020016 | 2020-02-18 | ||
KR1020200020016 | 2020-02-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102268104B1 true KR102268104B1 (en) | 2021-06-22 |
Family
ID=76600418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200090542A KR102268104B1 (en) | 2020-02-18 | 2020-07-21 | Method of predicting load and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102268104B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010076536A (en) * | 2008-09-25 | 2010-04-08 | Toyota Motor Corp | Electronic control unit, intelligent sensor, control system for vehicle, signal sampling method |
KR101662809B1 (en) * | 2015-05-28 | 2016-10-06 | 고려대학교 산학협력단 | Apparatus and method for forecasting electrical load in railway station |
KR101875329B1 (en) * | 2017-06-12 | 2018-07-05 | 한국과학기술원 | Forecasting apparatus and method for power consumption |
KR101941854B1 (en) * | 2018-11-08 | 2019-01-24 | 문경훈 | System and method of estimating load with null data correction |
-
2020
- 2020-07-21 KR KR1020200090542A patent/KR102268104B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010076536A (en) * | 2008-09-25 | 2010-04-08 | Toyota Motor Corp | Electronic control unit, intelligent sensor, control system for vehicle, signal sampling method |
KR101662809B1 (en) * | 2015-05-28 | 2016-10-06 | 고려대학교 산학협력단 | Apparatus and method for forecasting electrical load in railway station |
KR101875329B1 (en) * | 2017-06-12 | 2018-07-05 | 한국과학기술원 | Forecasting apparatus and method for power consumption |
KR101941854B1 (en) * | 2018-11-08 | 2019-01-24 | 문경훈 | System and method of estimating load with null data correction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109478045B (en) | Controlling a target system using prediction | |
Kuznetsova et al. | Reinforcement learning for microgrid energy management | |
Osório et al. | A new scenario generation-based method to solve the unit commitment problem with high penetration of renewable energies | |
Moser et al. | Adaptive power management in energy harvesting systems | |
Bhusal et al. | Deep ensemble learning-based approach to real-time power system state estimation | |
CN105164593A (en) | Method and device for controlling energy-generating system which can be operated with renewable energy source | |
Tang et al. | Efficient scenario generation of multiple renewable power plants considering spatial and temporal correlations | |
KR20200081098A (en) | System for operation of virtual power plant based on hybrid prediction model and method thereof | |
Duan et al. | A deep reinforcement learning based approach for optimal active power dispatch | |
US20240054020A1 (en) | Computing resource configuration methods and apparatuses | |
KR20190063198A (en) | Dynamic management system of energy demand and operation method thereof | |
Yao et al. | Management of cascading outage risk based on risk gradient and Markovian tree search | |
Guo et al. | Distributed optimal energy scheduling based on a novel PD pricing strategy in smart grid | |
Stricker et al. | Robustness of predictive energy harvesting systems: Analysis and adaptive prediction scaling | |
Vijayan | Energy consumption prediction in low energy buildings using machine learning and artificial intelligence for energy efficiency | |
Krishnasamy et al. | A Refined Teaching‐Learning Based Optimization Algorithm for Dynamic Economic Dispatch of Integrated Multiple Fuel and Wind Power Plants | |
US20150097531A1 (en) | System and method for controlling networked, grid-level energy storage devices | |
Steer et al. | Decision tree ensembles for online operation of large smart grids | |
CN117791596A (en) | Power dispatching method, system, electronic equipment and storage medium of fault power grid | |
KR102268104B1 (en) | Method of predicting load and apparatus thereof | |
KR20220011524A (en) | Method of predicting load and apparatus thereof | |
Siva et al. | Hybrid LSTM‐PCA‐Powered Renewable Energy‐Based Battery Life Prediction and Management for IoT Applications | |
Teekaraman et al. | [Retracted] Diminution of Smart Grid with Renewable Sources Using Support Vector Machines for Identification of Regression Losses in Large‐Scale Systems | |
Khan et al. | Dynamic feedback neuro-evolutionary networks for forecasting the highly fluctuating electrical loads | |
Alemazkoor et al. | Fast Probabilistic Voltage control for distribution networks with distributed generation using polynomial surrogates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |