KR20190024422A - Method and apparatus for estimating power demand using attention matrix - Google Patents

Method and apparatus for estimating power demand using attention matrix Download PDF

Info

Publication number
KR20190024422A
KR20190024422A KR1020170111404A KR20170111404A KR20190024422A KR 20190024422 A KR20190024422 A KR 20190024422A KR 1020170111404 A KR1020170111404 A KR 1020170111404A KR 20170111404 A KR20170111404 A KR 20170111404A KR 20190024422 A KR20190024422 A KR 20190024422A
Authority
KR
South Korea
Prior art keywords
data
power consumption
weight
encoded data
decoded
Prior art date
Application number
KR1020170111404A
Other languages
Korean (ko)
Other versions
KR101963558B1 (en
Inventor
차길환
Original Assignee
주식회사 알고리고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 알고리고 filed Critical 주식회사 알고리고
Priority to KR1020170111404A priority Critical patent/KR101963558B1/en
Publication of KR20190024422A publication Critical patent/KR20190024422A/en
Application granted granted Critical
Publication of KR101963558B1 publication Critical patent/KR101963558B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a method and apparatus for predicting power demand of an electric vehicle using an attention matrix. The method may be provided with an encoding step that an encoder applies auxiliary data to embedded power consumption data using a prelearned embedded layer and an attention layer based on the power consumption data and the auxiliary data and generates encoding data for the auxiliary data and power consumption and a decoding step that a decoder inputs the encoded auxiliary data and past prediction data to an embedding layer and applies attention weight of the decoder to input auxiliary data of the embedded decoder and the encoded power consumption data. Accordingly, power demand prediction of an electric vehicle may be precisely enabled not only in terms of time series but also in terms of local.

Description

어텐션 매트릭스를 이용한 전기차 전력 수요 예측 방법 및 장치{Method and apparatus for estimating power demand using attention matrix}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for predicting electric power demand using an attention matrix,

본 발명은 어텐션 매트릭스를 이용한 전기차 전력 수요 예측 방법 및 장치에 관한 것이다. The present invention relates to a method and an apparatus for predicting electric power demand using an affinity matrix.

최근 Tesla, Inc.를 주축으로 세계 자동차 시장의 패러다임이 내연기관 자동차에서 전기자동차로 이동되고 있다. 이는 자동차 배출가스에 대한 국제적인 환경 규제 강화, 석유 자원의 고갈 가능성 증대, 고유가의 지속 등이 원인이 되고 있다. 소비자들은 유가 상승에 대한 부담으로 고효율 자동차에 대한 선호를 증대하고 있다. 최근 우리나라에서 연비가 높은 경차와 하이브리드 자동차(HEV), 수입 경유(클린디젤) 자동차의 판매가 두드러지게 증가하고 있다. 전 세계적으로도 하이브리드 승용차 시장은 급격한 성장세를 나타내고 있다. 선진국들은 순수 전기자동차(EV) 및 플러그인 하이브리드 자동차(PHEV)의 보급을 강력히 추진하고 있다. Recently, the paradigm of the global automotive market has been shifting from internal combustion vehicles to electric cars, led by Tesla, Inc. This is due to the strengthening of international environmental regulations on automobile emissions, the possibility of exhaustion of petroleum resources, and the continuation of high oil prices. Consumers are increasing their preference for high-efficiency cars due to the burden of rising oil prices. Recently, sales of light vehicles with high fuel consumption and hybrid vehicles (HEV) and imported diesel (clean diesel) vehicles have increased markedly in Korea. Globally, the hybrid passenger car market is showing rapid growth. Developed countries are pushing for the dissemination of pure electric vehicles (EV) and plug-in hybrid vehicles (PHEV).

전기자동차는 효과적인 글로벌 온실가스 감축 수단이자, 지속가능한 환경을 위한 필수적인 대안으로 부상되고 있다. 미국, EU, 일본, 중국 등은 전기자동차를 선택의 문제가 아니라 국제 경제 환경과 자동차 산업의 판도를 뒤흔들 수 있는 핵심 기술로 인식하고 있다. 주요 국가들은 전기자동차 구매보조금을 지원해주고, 세제 혜택을 주는 등의 인센티브뿐만 아니라 주차, 충전 편의성 부여, 차량 운행 관련 혜택 등 각종 지원책을 시행하고 있다. Electric vehicles are an effective global GHG mitigation tool and are emerging as an essential alternative to a sustainable environment. The United States, the EU, Japan, and China recognize electric cars as a key technology that can shake the international economic environment and the landscape of the automobile industry, not the issue of choice. In addition to incentives such as subsidies for purchasing electric vehicles and tax benefits, major countries are implementing various support measures such as parking, charging convenience, and vehicle-related benefits.

대한민국 등록특허 10-1570302, 전력 계통 관리를 위한 전기차 충전 수요 예측 방법 및 시스템, 성균관대학교산학협력단Korean Patent No. 10-1570302, Method and System for Predicting Electric Vehicle Charging Demand for Power System Management, Sungkyunkwan Univ.

전기차가 빠르게 확산되기 위해서는 전력 계통의 관리가 필요하고, 이를 위해서는 충전 수요의 예측이 필요한 실정이다. 하지만, 기존의 선행문헌들은 이를 단순히 통계적으로 접근하여 해결하고 있는 실정이었고, 시계열적인 측면과 위치적인 측면(지역적인 측면)을 모두 고려하지 않아 전기차 충전 수요 예측이 정확하지 않은 문제가 있었다. In order for electric cars to spread quickly, it is necessary to manage the electric power system and it is necessary to predict the charging demand. However, existing prior literature has solved this problem by simply approaching it statistically, and there is a problem that electric vehicle charge demand prediction is not accurate because it does not take into account both time series aspect and positional aspect (local aspect).

따라서 본 발명은 상기 제시된 문제점을 개선하기 위하여 창안되었다.Accordingly, the present invention has been made to solve the above-described problems.

본 발명의 목적은, 3차원 매트릭스로 구성한 현재의 소비 전력 데이터와 날씨 데이터, 교통 데이터 등의 보조 데이터를 임베딩하고, 시계열적으로 공유되는 어텐션 모듈과 Self consistent 모듈을 통해 인코딩한 뒤, 시계열적으로 발생되는 인코딩 데이터를 시계열적으로 공유되는 어텐션 모듈과 Self consistent 모듈을 통해 디코딩하여 가까운 미래의 전기차 전력 수요 예측을 하는, 어텐션 매트릭스(attention matrix)를 이용한 전기차 전력 수요 예측 방법 및 장치를 제공하는데에 있다.An object of the present invention is to embed auxiliary data such as current power consumption data, weather data, traffic data, etc. constituted by a three-dimensional matrix and to encode them through an attitude module and a self consistent module, A method and an apparatus for predicting electric power demand using an attention matrix in which encoded data generated is decoded in a time-shared attitude module and a self-consistent module to predict electric power demand in the near future .

이하 본 발명의 목적을 달성하기 위한 구체적 수단에 대하여 설명한다.Hereinafter, specific means for achieving the object of the present invention will be described.

본 발명의 목적은, 임베딩 모듈이 위치 차원을 포함한 매트릭스 형태의 소비전력 데이터 및 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터를 임베딩하여 상기 소비전력 데이터 및 상기 보조 데이터에서 특징을 추출하고 스케일을 표준화하여 임베디드 소비전력 데이터와 임베디드 보조 데이터를 생성하는 이종 데이터 임베딩 단계; 인코더가 상기 임베디드 소비전력 데이터와 상기 임베디드 보조 데이터를 통해 상기 소비전력 데이터로부터 집중해야 할 데이터의 반영 정도를 계산하기 위한 가중치인 어텐션 가중치를 학습하고, 상기 임베디드 보조 데이터 및 상기 임베디드 소비전력 데이터를 기초로 기학습된 상기 임베디드 소비전력 데이터에 대한 어텐션 가중치인 소비전력 데이터 인코딩 어텐션 가중치를 상기 임베디드 소비전력 데이터에 적용하여 인코딩 데이터를 생성하는 인코딩 단계; 디코더가 상기 인코딩 데이터 및 과거의 예측된 인코딩 데이터를 수신하고, 상기 인코딩 데이터의 가중치와 상기 과거의 예측된 인코딩 데이터를 기초로 다시 입력받은 뒤, 상기 과거 데이터 디코딩 어텐션 가중치 및 상기 과거의 인코딩 데이터의 가중치를 기초로 기학습된 상기 인코딩 데이터에 대한 어텐션 가중치인 현재 데이터 디코딩 어텐션 가중치를 상기 인코딩 데이터에 적용하여 디코딩 데이터를 생성하는 디코딩 단계; 및 소비전력 예측 모듈이 상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터를 예측하는 소비전력 예측 단계;를 포함하고, 각각의 어텐션 가중치들은 시계열적으로 공유되는 것을 특징으로 하는, 이종 데이터 임베딩을 이용한 전력 수요 예측 방법을 제공하여 달성될 수 있다.An object of the present invention is to embed the power consumption data and the power consumption data in a matrix form and to embed at least one or more kinds of auxiliary data different in type from the power consumption data and extract the characteristics from the power consumption data and the auxiliary data, To generate embedded power consumption data and embedded auxiliary data; The encoder learns attachment weight, which is a weight for calculating the degree of reflection of data to be concentrated from the power consumption data through the embedded power consumption data and the embedded auxiliary data, and outputs the embedded auxiliary data and the embedded power consumption data An encoding step of generating encoded data by applying a power consumption data encoding affinity weight, which is an affinity weight for the embedded power consumption data learned in the embedded power consumption data, to the embedded power consumption data; A decoder receives the encoded data and past predicted encoded data, receives the encoded data and the past predicted encoded data, and then receives the past data decoded attention weight and the past encoded data A decoding step of generating decoded data by applying a current data decoding interest weight, which is an attention weight of the encoded data learned based on the weight, to the encoded data; And a power consumption predicting module for receiving the decoded data and predicting power consumption data of t + 1 through the decoded data, wherein each of the attention weights is shared in a time series manner Can be achieved by providing a power demand prediction method using heterogeneous data embedding.

또한, 본 발명의 다른 목적은, 위치 차원을 포함한 매트릭스 형태의 소비전력 데이터 및 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터를 임베딩하여 상기 소비전력 데이터 및 상기 보조 데이터에서 특징을 추출하고 스케일을 표준화하여 임베디드 소비전력 데이터와 임베디드 보조 데이터를 생성하는 임베딩 모듈; 상기 임베디드 소비전력 데이터와 상기 임베디드 보조 데이터를 통해 상기 소비전력 데이터로부터 집중해야 할 데이터의 반영 정도를 계산하기 위한 가중치인 어텐션 가중치를 학습하고, 상기 임베디드 보조 데이터 및 상기 임베디드 소비전력 데이터를 기초로 기학습된 상기 임베디드 소비전력 데이터에 대한 어텐션 가중치인 소비전력 데이터 인코딩 어텐션 가중치를 상기 임베디드 소비전력 데이터에 적용하여 인코딩 데이터를 생성하는 인코더; 상기 인코딩 데이터 및 과거의 예측된 인코딩 데이터를 수신하고, 상기 인코딩 데이터의 가중치와 상기 과거의 예측된 인코딩 데이터를 기초로 다시 입력받은 뒤, 상기 과거 데이터 디코딩 어텐션 가중치 및 상기 과거의 인코딩 데이터의 가중치를 기초로 기학습된 상기 인코딩 데이터에 대한 어텐션 가중치인 현재 데이터 디코딩 어텐션 가중치를 상기 인코딩 데이터에 적용하여 디코딩 데이터를 생성하는 디코더; 및 상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터를 예측하는 소비전력 예측 모듈;를 포함하고, 각각의 어텐션 가중치들은 시계열적으로 공유되는 것을 특징으로 하는, 이종 데이터 임베딩을 이용한 전력 수요 예측 장치를 제공하여 달성될 수 있다.Another object of the present invention is to embody at least one or more auxiliary data different in type from the power consumption data in the form of a matrix including the position dimension and to extract the characteristics from the power consumption data and the auxiliary data, An embedded module for standardizing the power consumption data and the embedded auxiliary data to generate embedded power consumption data and embedded auxiliary data; Which is a weight for calculating the degree of reflection of data to be concentrated, from the power consumption data through the embedded power consumption data and the embedded auxiliary data, based on the embedded auxiliary data and the embedded power consumption data, An encoder for generating encoded data by applying a power consumption data encoding affinity weight, which is an affinity weight to the learned embedded power consumption data, to the embedded power consumption data; The method of claim 1, further comprising: receiving the encoded data and past predicted encoded data, receiving the encoded data and past predicted encoded data, and receiving the past data decoded attention weight and the weight of the past encoded data, A decoder for applying decoded data to the encoded data to generate decoded data, the decoded data being weighted by the current data; And a power consumption prediction module for receiving the decoded data and predicting power consumption data of t + 1 through the decoded data, wherein each of the attention weights is shared in a time series manner. Can be achieved by providing a power demand predicting device using the power demand prediction device.

상기한 바와 같이, 본 발명에 의하면 이하와 같은 효과가 있다.As described above, the present invention has the following effects.

첫째, 본 발명의 일실시예에 따르면, 시계열적으로 데이터를 학습하면서도 어텐션 유닛에 의해 error vanishing 문제가 발생되지 않는 효과가 발생된다. RNN이나 LSTM과 같은 시계열적인 예측/분류 모델은 여러번의 Recurrent를 거치면서 error가 vanishing되어 제대로 된 예측/분류가 어려워지는 문제가 있었다.First, according to an embodiment of the present invention, an error vanishing problem is not generated by the attention unit while learning data in a time series. Time-series predictive / classification models such as RNN and LSTM have problems in that accurate prediction / classification becomes difficult due to vanishing of errors through multiple recurrents.

둘째, 본 발명의 일실시예에 따르면, 기존의 VAE보다 sparse한 시계열 데이터를 예측하는데 좀 더 정확해지는 효과가 발생된다. variational AE의 경우, 전체 입력된 데이터 set의 평균과 분산을 통해 새로운 데이터를 generate하는데에 좀 더 초점이 맞추어져 있으므로, 특이한 데이터가 sparse하게 존재할 경우, 이에 대한 학습이 쉽지 않으며, 평균과 분산에 의해 저러한 feature들이 학습에 잘 반영이 되지 않는 측면이 존재하기 때문에 Sparse 한 시계열 데이터를 예측하는 것이 어려운 문제가 있었다. Second, according to one embodiment of the present invention, more accurate effect is obtained in predicting sparse time series data than existing VAE. In the case of variational AE, the focus is more on generating new data through averaging and variance of the entire input data set, so if the sparse data exists, it is not easy to learn, It is difficult to predict sparse time series data because these features are not well reflected in learning.

셋째, 본 발명의 일실시예에 따르면, 전기차 충전 수요 예측, 전기차 전력 수요 예측이 시계열적인 측면뿐만 아니라, 지역적인 측면까지도 정밀하게 가능해지는 효과가 발생된다.Third, according to one embodiment of the present invention, there is an effect that prediction of charging demand of an electric car and prediction of electric power demand of an electric vehicle can be precisely performed not only in terms of time series but also local aspects.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 장치를 도시한 모식도,
도 2는 본 발명의 일실시예에 따른 임베딩 모듈을 도시한 모식도,
도 3은 본 발명의 일실시예에 따른 인코더의 구조를 도시한 모식도,
도 4는 본 발명의 일실시예에 따른 인코더의 시계열적인 형태를 도시한 것,
도 5는 본 발명의 일실시예에 따른 encoding layer(인코더, 11)의 시계열적 공유를 도시한 것,
도 6은 본 발명의 일실시예에 따른 디코더의 구조를 도시한 모식도,
도 7은 본 발명의 일실시예에 따른 디코더의 시계열적인 형태를 도시한 것,
도 8은 본 발명의 일실시예에 따른 디코더(20)의 시계열적 공유를 도시한 것,
도 9는 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 방법을 도시한 것이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate preferred embodiments of the invention and, together with the description, And shall not be interpreted.
1 is a schematic diagram showing an apparatus for predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention;
FIG. 2 is a schematic diagram illustrating an embedding module according to an embodiment of the present invention. FIG.
3 is a schematic diagram showing a structure of an encoder according to an embodiment of the present invention,
FIG. 4 illustrates a time-series form of an encoder according to an embodiment of the present invention,
FIG. 5 illustrates the temporal sharing of an encoding layer (encoder) 11 according to an embodiment of the present invention,
6 is a schematic diagram showing a structure of a decoder according to an embodiment of the present invention;
7 illustrates a time-series form of a decoder according to an embodiment of the present invention,
FIG. 8 illustrates a time-series sharing of the decoder 20 according to an embodiment of the present invention,
FIG. 9 illustrates a method of predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 쉽게 실시할 수 있는 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작원리를 상세하게 설명함에 있어서 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following detailed description of the operation principle of the preferred embodiment of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may unnecessarily obscure the subject matter of the present invention.

또한, 도면 전체에 걸쳐 유사한 기능 및 작용을 하는 부분에 대해서는 동일한 도면 부호를 사용한다. 명세서 전체에서, 특정 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고, 간접적으로 연결되어 있는 경우도 포함한다. 또한, 특정 구성요소를 포함한다는 것은 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The same reference numerals are used for portions having similar functions and functions throughout the drawings. In the specification, when a specific portion is connected to another portion, it includes not only a direct connection but also a case where the other portion is indirectly connected with another element in between. In addition, the inclusion of a specific constituent element does not exclude other constituent elements unless specifically stated otherwise, but may include other constituent elements.

아래의 상세한 설명에서는 사용자의 클라이언트에서 신경망 모델에 입력값을 넣어 컴퓨팅을 수행하는 것을 전제로 기재되었다. 하지만, 본 발명의 범위는 이에 한정되지 않는다. 본 발명은 입력값의 생성 디바이스로부터 사용자의 클라이언트에서 입력값을 받고(예를 들면, 근거리 통신), 사용자 클라이언트에서 컴퓨팅 서버로 입력값을 송신하여 컴퓨팅 서버에서 입력값을 신경망 모델에 넣어 컴퓨팅하도록 구성될 수도 있다. 즉, 컴퓨팅의 주체는 사용자 클라이언트가 될 수도 있고, 컴퓨팅 서버가 될수도 있으므로, 이를 본 명에서에서는 컴퓨팅 장치로 통일한다.In the following detailed description, it is assumed that the user's client performs computation by inputting the input value to the neural network model. However, the scope of the present invention is not limited thereto. The present invention is configured to receive an input value from a user's client (e.g., near field communication) from an input value generation device, send an input value from a user client to a computing server, . In other words, the subject of computing may be a user client or a computing server, so that it is unified into a computing device in the present invention.

이종 데이터 Heterogeneous data 임베딩을Embedding 이용한 전기차 전력 수요 예측 장치 Electric power demand forecasting device used

도 1은 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 장치를 도시한 모식도이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 장치(1)는, 임베딩 모듈(10), 인코더(11), 디코더(20), 소비전력 예측 모듈(21)을 포함할 수 있다. 1 is a schematic diagram showing an apparatus for predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention. 1, an apparatus 1 for predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention includes an embedded module 10, an encoder 11, a decoder 20, a power consumption prediction Module 21 as shown in FIG.

임베딩 모듈(10)은 위치 차원을 포함한 매트릭스 형태로 구성된 소비전력 데이터(100) 및 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터(101, 위치 차원을 포함한 매트릭스 형태로 구성된 날씨 데이터, 교통 데이터 등을 의미할 수 있음)를 수신하여 상기 소비전력 데이터(100)와 보조 데이터(101)에서 특징을 추출하고 스케일을 표준화하여 임베디드 소비전력 데이터와 임베디드 보조 데이터를 생성하는 모듈이다. Embedding module 10 includes power consumption data 100 in the form of a matrix including a position dimension and at least one auxiliary data 101 different in type from the power consumption data 101. The weather data, Etc.), extracts features from the power consumption data 100 and the auxiliary data 101, and standardizes the scale to generate embedded power consumption data and embedded auxiliary data.

도 2는 본 발명의 일실시예에 따른 임베딩 모듈을 도시한 모식도이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 임베딩 모듈(10)은 embedding layer를 포함할 수 있고, 인코더의 input layer와 연결될 수 있다. 임베딩 모듈(10)은 소비전력 데이터(100, charging data), 부가 데이터(101, traffic data, weather data 등)가 embedding layer에 입력되면 인공신경망을 통해 특징을 추출하고 스케일을 표준화하여 임베디드 소비전력 데이터(Extracted feature|charging data), 임베디드 보조 데이터(Extracted feature|traffic data and weather data)를 생성하여 인코더(11)의 input layer로 송신하게 된다. 2 is a schematic diagram illustrating an embedding module according to an embodiment of the present invention. As shown in FIG. 2, an embedding module 10 according to an embodiment of the present invention may include an embedding layer, and may be connected to an input layer of an encoder. The embedding module 10 extracts characteristics through the artificial neural network and normalizes the scale when the power consumption data 100, charging data, additional data 101, traffic data, weather data, and the like are input to the embedding layer, (Extracted Feature | Charging Data), and Extracted Feature (Traffic Data and Weather Data) to the input layer of the encoder 11.

인코더(11)는 상기 임베디드 소비전력 데이터와 상기 임베디드 보조 데이터를 수신하고, 각각에 특정 어텐션 가중치(attention weight)를 부여한 뒤, Self consistent를 적용하여 인코딩 데이터(200)를 생성하는 모듈이다. 이때, 인코더(11)의 어텐션 가중치는 시계열적으로 공유되는 것을 특징으로 한다. The encoder 11 is a module for receiving the embedded power consumption data and the embedded auxiliary data, assigning a specific attention weight to each of the embedded consumption data and generating self-consistent encoding data 200. At this time, the attention weights of the encoder 11 are shared in a time-series manner.

도 3은 본 발명의 일실시예에 따른 인코더의 구조를 도시한 모식도이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 인코더(11)는 input layer와 encoding attention layer를 포함할 수 있다. input layer에서는 임베딩 모듈(10)에서 출력되는 임베디드 소비전력 데이터(Extracted feature|charging data), 임베디드 보조 데이터(Extracted feature|traffic data and weather data)를 입력받게 된다. Encoding attention layer에서는 어텐션 가중치 매트릭스(attention weight matrix)를 이용하여 어떤 데이터에 집중하여 인코딩하게 될 지를 결정하게 된다. 이때, 임베디드 소비전력 데이터에 적용되는 어텐션 가중치와 임베디드 보조 데이터에 적용되는 어텐션 가중치가 달리 적용되도록 설계될 수 있다. 3 is a schematic diagram showing a structure of an encoder according to an embodiment of the present invention. As shown in FIG. 3, the encoder 11 according to an exemplary embodiment of the present invention may include an input layer and an encoding attention layer. In the input layer, the embedded power consumption data (Extracted feature) and the Extracted feature (traffic data and weather data) output from the Embedding module 10 are input. In the Encoding Attention Layer, we use an attention weight matrix to decide what data to focus on. At this time, the attention weight applied to the embedded power data may be designed to be different from the attention weight applied to embedded assist data.

본 발명의 일실시예에 따르면 임베디드 보조 데이터에 적용되는 어텐션 가중치인 보조 데이터 인코딩 어텐션 가중치는 임베디드 보조 데이터에 대한 가중치와 임베디드 소비전력 데이터에 대한 가중치를 이용하여 학습하게 된다. 예를 들어, 보조 데이터 인코딩 어텐션 가중치는 아래 수학식 1과 같이 계산되어 학습될 수 있다. According to an embodiment of the present invention, an auxiliary data encoding affinity weight, which is an affinity weight applied to embedded auxiliary data, is learned by using a weight for embedded auxiliary data and a weight for embedded power consumption data. For example, the auxiliary data encoding attention weights can be calculated and calculated as shown in Equation 1 below.

Figure pat00001
Figure pat00001

위 수학식 1에서 wsub은 보조 데이터 인코딩 어텐션 가중치, a0는 상수, Q는 임베디드 보조 데이터에 대한 가중치, V는 임베디드 소비전력 데이터에 대한 가중치, T는 시간을 의미할 수 있다. In Equation (1), w sub is an auxiliary data encoding attentional weight, a 0 is a constant, Q is weight for embedded auxiliary data, V is weight for embedded power consumption data, and T is time.

또한, 본 발명의 일실시예에 따르면 임베디드 소비전력 데이터에 적용되는 어텐션 가중치인 소비전력 데이터 인코딩 어텐션 가중치는 임베디드 소비전력 데이터에 대한 가중치를 이용하여 학습하게 된다. 예를 들어, 소비전력 데이터 인코딩 어텐션 가중치는 아래 수학식 2와 같이 계산되어 학습될 수 있다. In addition, according to an embodiment of the present invention, the consumption power data encoding affection weight, which is an attention weight applied to the embedded power consumption data, is learned using a weight for embedded power consumption data. For example, the power consumption data encoding attention weight can be calculated and calculated as shown in Equation 2 below.

Figure pat00002
Figure pat00002

위 수학식 2에서 wmain은 소비전력 데이터 인코딩 어텐션 가중치, a0QVT는 보조 데이터 인코딩 어텐션 가중치, V는 임베디드 소비전력 데이터에 대한 가중치, h는 hypothesis function을 의미할 수 있다. In Equation (2), w main denotes a power consumption data encoding attentional weight, a 0 QV T denotes an auxiliary data encoding attention weight, V denotes a weight for embedded power consumption data, and h denotes a hypothesis function.

인코더(11)는 도 3에 도시된 바와 같이, 위의 수학식에 따라 계산된 어텐션 가중치를 이용하여 임베디드 소비전력 데이터와 임베디드 보조 데이터를 add & normalization하는 방법으로 인코딩 데이터를 생성하도록 구성될 수 있다. 3, the encoder 11 can be configured to generate encoded data by a method of adding & normalization of the embedded power consumption data and the embedded auxiliary data using the attention weights calculated according to the above equation .

도 4는 본 발명의 일실시예에 따른 인코더의 시계열적인 형태를 도시한 것이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 인코더(11)는 encoding attention layer를 시계열적으로 공유하도록 구성될 수 있다. 이는 상기 소비전력 데이터 인코딩 어텐션 가중치와 보조 데이터 인코딩 어텐션 가중치를 시계열적으로 공유할 수 있다는 것을 의미할 수 있다. FIG. 4 illustrates a time-series form of an encoder according to an embodiment of the present invention. As shown in FIG. 4, the encoder 11 according to an embodiment of the present invention may be configured to share an encoding attention layer in a time series manner. This may mean that the power consumption data encoding affinity weight and the auxiliary data encoding affection weight can be shared in a time series manner.

도 5는 본 발명의 일실시예에 따른 encoding layer(인코더, 11)의 시계열적 공유를 도시한 것이다. 도 5에 도시된 바와 같이, 시계열적으로 encoding attention layer가 공유되고, concatenating layer에 의해 encoding attention layer의 self consistent가 수행되게 되고, 인코딩 데이터를 출력하게 된다. FIG. 5 illustrates the temporal sharing of an encoding layer (encoder) 11 according to an embodiment of the present invention. As shown in FIG. 5, the encoding attention layer is shared in a time series, the encoding attention layer is self-consistent by the concatenating layer, and encoded data is output.

디코더(20)는 시간 t의 인코딩 데이터(200)와 시간 t-1의 인코딩 데이터(200')를 수신하고, 각각에 특정 어텐션 가중치를 부여한 뒤, Self consistent를 적용하여 디코딩 데이터를 생성하는 모듈이다. 이때, 디코더(20)의 어텐션 가중치는 시계열적으로 공유되는 것을 특징으로 한다. The decoder 20 is a module for receiving the encoded data 200 at time t and the encoded data 200 'at time t-1, assigning a specific weight to each of them, and then applying self consistent to generate decoded data . At this time, the attention weights of the decoder 20 are shared in a time-series manner.

도 6은 본 발명의 일실시예에 따른 디코더의 구조를 도시한 모식도이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 디코더(20)는 input layer와 decoding attention layer를 포함할 수 있다. 디코더(20)의 input layer에서는 인코더(11)에서 출력되는 시간 t의 인코딩 데이터(output from encoding layer) 및 시간 t-1의 인코딩 데이터(output position and value of yt - 1)를 입력받게 된다.6 is a schematic diagram showing a structure of a decoder according to an embodiment of the present invention. As shown in FIG. 6, the decoder 20 according to an exemplary embodiment of the present invention may include an input layer and a decoding attention layer. The input layer of the decoder 20, encoder 11 encodes the data (output from encoding layer) and time t-1 encoded data of the time t that is output from-receive, type (output position and value of y t 1).

decoding attention layer에서는 어텐션 가중치 매트릭스(attention weight matrix)를 이용하여 어떤 데이터에 집중하여 디코딩하게 될지를 결정하게 된다. 이때, 시간 t의 인코딩 데이터에 적용되는 어텐션 가중치와 시간 t-1의 인코딩 데이터에 적용되는 어텐션 가중치가 달리 적용되도록 설계될 수 있다. In the decoding attention layer, the attention weight matrix is used to decide which data to focus on and decode. At this time, the attention weight applied to the encoded data at time t and the attention weight applied to the encoded data at time t-1 may be designed to be differently applied.

본 발명의 일실시예에 따르면 시간 t-1의 인코딩 데이터(과거 인코딩 데이터)에 적용되는 어텐션 가중치인 과거 데이터 디코딩 어텐션 가중치는 시간 t-1의 인코딩 데이터에 대한 가중치와 시간 t의 인코딩 데이터에 대한 가중치를 이용하여 학습하게 된다. 예를 들어, 과거 데이터 디코딩 어텐션 가중치는 아래 수학식 3과 같이 계산되어 학습될 수 있다. According to one embodiment of the present invention, the past data decoding interest weights, which are the attention weights applied to the encoded data at time t-1 (past encoded data), are weighted for the encoded data at time t-1 and for the encoded data at time t We learn by using weights. For example, the past data decoding attentional weights can be learned and calculated by Equation (3) below.

Figure pat00003
Figure pat00003

위 수학식 3에서 w past은 과거 데이터 디코딩 어텐션 가중치, a0는 상수, Q'는 과거 인코딩 데이터에 대한 가중치, V는 시간 t의 인코딩 데이터에 대한 가중치, T는 시간을 의미할 수 있다. In the above Equation 3 w past history data is decoded attention weight, a 0 is a constant, Q 'is a weight for a past encoded data, V is the weight for the encoded data of the time t, T may represent a time.

또한, 본 발명의 일실시예에 따르면 시간 t의 인코딩 데이터에 적용되는 어텐션 가중치인 현재 데이터 디코딩 어텐션 가중치는 시간 t의 인코딩 데이터에 대한 가중치를 이용하여 학습하게 된다. 예를 들어, 현재 데이터 디코딩 어텐션 가중치는 아래 수학식 4와 같이 계산되어 학습될 수 있다. In addition, according to an embodiment of the present invention, the current data decoding attention weight, which is the attention weight applied to the encoded data of the time t, is learned using the weight of the encoded data of the time t. For example, the current data decoding attentional weight can be learned and calculated by Equation (4) below.

Figure pat00004
Figure pat00004

위 수학식 4에서 wpresent은 현재 데이터 디코딩 어텐션 가중치, a0Q'V'T는 과거 데이터 디코딩 어텐션 가중치, V는 시간 t의 인코딩 데이터에 대한 가중치, h는 hypothesis function을 의미할 수 있다. In the equation (4), w present represents the current data decoding attentional weight, a 0 Q'V ' T represents the past data decoding attentional weight, V represents the weight for encoded data at time t, and h represents a hypothesis function.

디코더(20)는 도 6에 도시된 바와 같이, 위의 수학식에 따라 계산된 어텐션 가중치를 이용하여 현재의 인코딩 데이터와 과거의 인코딩 데이터를 add & normalization하는 방법으로 디코딩 데이터를 생성하도록 구성될 수 있다. The decoder 20 may be configured to generate decoded data by adding and normalizing the current encoded data and the past encoded data using the attenuation weights calculated according to the above equation have.

도 7은 본 발명의 일실시예에 따른 디코더의 시계열적인 형태를 도시한 것이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 디코더(20)는 decoding attention layer를 시계열적으로 공유하도록 구성될 수 있다. 이는 상기 현재 데이터 디코딩 어텐션 가중치와 과거 데이터 디코딩 어텐션 가중치를 시계열적으로 공유할 수 있다는 것을 의미할 수 있다. FIG. 7 illustrates a time-series form of a decoder according to an embodiment of the present invention. As shown in FIG. 7, the decoder 20 according to an embodiment of the present invention can be configured to share a decoding attention layer in a time series manner. This may mean that the current data decoding interest weights and the past data decoding interest weights can be shared in a time series manner.

도 8은 본 발명의 일실시예에 따른 디코더(20)의 시계열적 공유를 도시한 것이다. 도 8에 도시된 바와 같이, 시계열적으로 decoding attention layer가 공유되고, concatenating layer에 의해 decoding attention layer의 self consistent가 수행되게 되고, 디코딩 데이터를 출력하게 된다. Figure 8 illustrates the time-series sharing of the decoder 20 in accordance with an embodiment of the present invention. As shown in FIG. 8, the decoding attention layer is shared in a time-series manner, the decoding attention layer is self-consistent by the concatenating layer, and the decoding data is output.

소비전력 예측 모듈(21)은 상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터(300)를 예측하는 모듈이다. The power consumption prediction module 21 receives the decoded data and predicts the power consumption data 300 of t + 1 through the decoded data.

이종 데이터 Heterogeneous data 임베딩을Embedding 이용한 전기차 전력 수요 예측 방법 Estimation method of electric power demand using electric car

도 9는 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 방법을 도시한 것이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 방법은 이종 데이터 임베딩 단계(S10), 인코딩 단계(S20), 디코딩 단계(S30), 소비전력 예측 단계(S40)를 포함할 수 있다. FIG. 9 illustrates a method of predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention. As shown in FIG. 9, a method of predicting electric power demand using heterogeneous data embedding according to an embodiment of the present invention includes a heterogeneous data embedding step (S10), an encoding step (S20), a decoding step (S30) Step S40.

임베딩 단계(S10)는 임베딩 모듈(10)이 위치 차원을 포함한 매트릭스 형태로 구성된 소비전력 데이터(100) 및 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터(101, 위치 차원을 포함한 매트릭스 형태로 구성된 날씨 데이터, 교통 데이터 등을 의미할 수 있음)를 수신하여 상기 소비전력 데이터(100)와 보조 데이터(101)에서 특징을 추출하고 스케일을 표준화하여 임베디드 소비전력 데이터와 임베디드 보조 데이터를 생성하는 단계이다. In the embedding step S10, the embedding module 10 generates power consumption data 100 in the form of a matrix including a position dimension and at least one auxiliary data 101 different in type from the power consumption data in a matrix form including position dimensions And generating embedded power data and embedded auxiliary data by extracting features from the power consumption data 100 and the auxiliary data 101 and standardizing the scale by receiving the power consumption data 100 and the auxiliary data 101 to be.

인코딩 단계(S20)는 인코더(11)가 상기 임베디드 소비전력 데이터와 상기 임베디드 보조 데이터를 수신하고, 각각에 특정 어텐션 가중치(attention weight)를 부여한 뒤, Self consistent를 적용하여 인코딩 데이터(200)를 생성하는 단계이다.In the encoding step S20, the encoder 11 receives the embedded power consumption data and the embedded auxiliary data, assigns a specific attention weight to each of the embedded power data, and applies self consistent to generate encoded data 200 .

디코딩 단계(S30)는 디코더(20)가 시간 t(현재)의 인코딩 데이터(200)와 시간 t-1(과거)의 인코딩 데이터(200')를 수신하고, 각각에 특정 어텐션 가중치를 부여한 뒤, Self consistent를 적용하여 디코딩 데이터를 생성하는 단계이다. The decoding step S30 is a step in which the decoder 20 receives the encoded data 200 of the time t (current) and the encoded data 200 'of the time t-1 (past), assigns a specific weight to each of them, And generates decoded data by applying self consistent.

소비전력 예측 단계(S40)는 소비전력 예측 모듈(21)이 상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터(300)를 예측하는 단계이다. The power consumption predicting step S40 is a step in which the power consumption predicting module 21 receives the decoded data and predicts the power consumption data 300 of t + 1 through the decoded data.

이상에서 설명한 바와 같이, 본 발명이 속하는 기술 분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함하는 것으로 해석되어야 한다.As described above, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

1: 이종 데이터 임베딩을 이용한 전기차 전력 수요 예측 장치
10: 임베딩 모듈
11: 인코더
20: 디코더
21: 소비전력 예측 모듈
100: 소비전력 데이터
101: 보조 데이터
200: 인코딩 데이터
200': 과거 인코딩 데이터
300: t+1 소비전력 데이터
1: Electric power demand prediction device using heterogeneous data embedding
10: Embedding module
11: Encoder
20: decoder
21: Power consumption prediction module
100: Power consumption data
101: Auxiliary data
200: Encoded data
200 ': Past encoded data
300: t + 1 Power consumption data

Claims (2)

인코더가 위치 차원을 포함한 매트릭스 형태의 소비전력 데이터와 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터를 통해 상기 소비전력 데이터로부터 집중해야 할 데이터의 반영 정도를 계산하기 위한 매트릭스 형태의 가중치인 어텐션 가중치를 학습하고, 상기 보조 데이터 및 상기 소비전력 데이터를 기초로 기학습된 상기 소비전력 데이터에 대한 어텐션 가중치인 소비전력 데이터 인코딩 어텐션 가중치를 상기 소비전력 데이터에 적용하여 인코딩 데이터를 생성하는 인코딩 단계;
디코더가 상기 인코딩 데이터 및 과거의 예측된 인코딩 데이터를 수신하고, 상기 인코딩 데이터의 가중치와 상기 과거의 예측된 인코딩 데이터를 기초로 다시 입력받은 뒤, 상기 과거 데이터 디코딩 어텐션 가중치 및 상기 과거의 인코딩 데이터의 가중치를 기초로 기학습된 상기 인코딩 데이터에 대한 어텐션 가중치인 현재 데이터 디코딩 어텐션 가중치를 상기 인코딩 데이터에 적용하여 디코딩 데이터를 생성하는 디코딩 단계; 및
소비전력 예측 모듈이 상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터를 예측하는 소비전력 예측 단계;
를 포함하고,
각각의 어텐션 가중치들은 시계열적으로 공유되는 것을 특징으로 하는, 어텐션 매트릭스를 이용한 전력 수요 예측 방법.
Wherein the encoder is operable to calculate the power consumption of the matrix in the form of a matrix, which is a matrix-like weighting value for calculating the degree of reflection of data to be concentrated from the power consumption data through at least one or more auxiliary data having a different type from the power consumption data, An encoding step of learning a weight, and generating encoded data by applying a power consumption data encoding affinity weight, which is an affinity weight of the power consumption data learned based on the auxiliary data and the power consumption data, to the power consumption data;
A decoder receives the encoded data and past predicted encoded data, receives the encoded data and the past predicted encoded data, and then receives the past data decoded attention weight and the past encoded data A decoding step of generating decoded data by applying a current data decoding interest weight, which is an attention weight of the encoded data learned based on the weight, to the encoded data; And
A power consumption predicting module for receiving the decoded data and predicting power consumption data of t + 1 through the decoded data;
Lt; / RTI >
And wherein each of the attentional weights is shared in a time-series manner.
위치 차원을 포함한 매트릭스 형태의 소비전력 데이터와 상기 소비전력 데이터와 종류가 다른 적어도 하나 이상의 보조 데이터를 통해 상기 소비전력 데이터로부터 집중해야 할 데이터의 반영 정도를 계산하기 위한 매트릭스 형태의 가중치인 어텐션 가중치를 학습하고, 상기 보조 데이터 및 상기 소비전력 데이터를 기초로 기학습된 상기 소비전력 데이터에 대한 어텐션 가중치인 소비전력 데이터 인코딩 어텐션 가중치를 상기 소비전력 데이터에 적용하여 인코딩 데이터를 생성하는 인코더;
상기 인코딩 데이터 및 과거의 예측된 인코딩 데이터를 수신하고, 상기 인코딩 데이터의 가중치와 상기 과거의 예측된 인코딩 데이터를 기초로 다시 입력받은 뒤, 상기 과거 데이터 디코딩 어텐션 가중치 및 상기 과거의 인코딩 데이터의 가중치를 기초로 기학습된 상기 인코딩 데이터에 대한 어텐션 가중치인 현재 데이터 디코딩 어텐션 가중치를 상기 인코딩 데이터에 적용하여 디코딩 데이터를 생성하는 디코더; 및
상기 디코딩 데이터를 수신하고, 상기 디코딩 데이터를 통해 t+1의 소비전력 데이터를 예측하는 소비전력 예측 모듈;
를 포함하고,
각각의 어텐션 가중치들은 시계열적으로 공유되는 것을 특징으로 하는, 어텐션 매트릭스를 이용한 전력 수요 예측 장치.
A weight of a matrix form for calculating the degree of reflection of data to be concentrated from the power consumption data through at least one or more auxiliary data having a different type from the power consumption data, An encoder for generating encoded data by applying the power consumption data encoding attentional weight, which is an attention weight for the power consumption data learned based on the auxiliary data and the power consumption data, to the power consumption data;
The method of claim 1, further comprising: receiving the encoded data and past predicted encoded data, receiving the encoded data and past predicted encoded data, and receiving the past data decoded attention weight and the weight of the past encoded data, A decoder for applying decoded data to the encoded data to generate decoded data, the decoded data being weighted by the current data; And
A power consumption prediction module receiving the decoded data and predicting power consumption data at t + 1 through the decoded data;
Lt; / RTI >
Wherein each of the attentional weights is shared in a time-series manner.
KR1020170111404A 2017-08-31 2017-08-31 Apparatus for estimating power demand using attention matrix KR101963558B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170111404A KR101963558B1 (en) 2017-08-31 2017-08-31 Apparatus for estimating power demand using attention matrix

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170111404A KR101963558B1 (en) 2017-08-31 2017-08-31 Apparatus for estimating power demand using attention matrix

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190033223A Division KR102080094B1 (en) 2019-03-22 2019-03-22 Apparatus for estimating power demand using attention matrix

Publications (2)

Publication Number Publication Date
KR20190024422A true KR20190024422A (en) 2019-03-08
KR101963558B1 KR101963558B1 (en) 2019-03-28

Family

ID=65801078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170111404A KR101963558B1 (en) 2017-08-31 2017-08-31 Apparatus for estimating power demand using attention matrix

Country Status (1)

Country Link
KR (1) KR101963558B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210011707A (en) 2019-07-23 2021-02-02 서강대학교산학협력단 A CNN-based Scene classifier with attention model for scene recognition in video

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100711012B1 (en) * 1998-10-07 2007-04-25 소니 가부시끼 가이샤 Coding apparatus and method, decoding apparatus and method, data processing system, storage medium, and signal
KR101355332B1 (en) * 2009-07-09 2014-01-27 퀄컴 인코포레이티드 Different weights for uni-directional prediction and bi-directional prediction in video coding
KR101570302B1 (en) 2014-10-27 2015-11-19 성균관대학교산학협력단 Method and system for predicting demand of recharging electric vehicles for electricity network management

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100711012B1 (en) * 1998-10-07 2007-04-25 소니 가부시끼 가이샤 Coding apparatus and method, decoding apparatus and method, data processing system, storage medium, and signal
KR101355332B1 (en) * 2009-07-09 2014-01-27 퀄컴 인코포레이티드 Different weights for uni-directional prediction and bi-directional prediction in video coding
KR101570302B1 (en) 2014-10-27 2015-11-19 성균관대학교산학협력단 Method and system for predicting demand of recharging electric vehicles for electricity network management

Also Published As

Publication number Publication date
KR101963558B1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
Baouche et al. Efficient allocation of electric vehicles charging stations: Optimization model and application to a dense urban network
Boulanger et al. Vehicle electrification: Status and issues
Yufang et al. Investigating long‐term vehicle speed prediction based on BP‐LSTM algorithms
US20160335377A1 (en) Electricity-demand prediction device, electricity supply system, electricity-demand prediction method, and program
CN110597086A (en) Simulation scene generation method and unmanned system test method
Tran et al. DeepTRANS: a deep learning system for public bus travel time estimation using traffic forecasting
Fukushima et al. Prediction of energy consumption for new electric vehicle models by machine learning
Yang et al. EV charging behaviour analysis and modelling based on mobile crowdsensing data
US10852150B2 (en) Methods and apparatuses for fuel consumption prediction
JP2019527871A (en) System and method for determining estimated arrival time
Wang et al. Bus arrival time prediction using RBF neural networks adjusted by online data
Sun et al. Time series anomaly detection based on GAN
CN111267866A (en) Information processing method, information processing apparatus, information processing medium, and electronic device
KR101963558B1 (en) Apparatus for estimating power demand using attention matrix
KR101963557B1 (en) Apparatus for estimating power demand using heterogeneous data embedding
CN111833074A (en) Dispute responsibility confirmation method and device for network appointment vehicle and computer readable storage medium
KR20190035637A (en) Apparatus for estimating power demand using attention matrix
Hu et al. An artificial-neural-network-based model for real-time dispatching of electric autonomous taxis
Csiszár et al. Operational model and impacts of mobility service based on autonomous vehicles
Chen et al. Prediction of Public Bus Passenger Flow Using Spatial–Temporal Hybrid Model of Deep Learning
Modi et al. A system for electric vehicle’s energy-aware routing in a transportation network through real-time prediction of energy consumption
KR20190035636A (en) Apparatus for estimating power demand using heterogeneous data embedding
Rajan et al. Robustness generalizations of the shortest feasible path problem for electric vehicles
Ruhhammer et al. Crowdsourced intersection parameters: A generic approach for extraction and confidence estimation
Ng et al. Mobile outdoor parking space detection application

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant