KR102671874B1 - 최적 제어 수행 방법 및 장치 - Google Patents

최적 제어 수행 방법 및 장치 Download PDF

Info

Publication number
KR102671874B1
KR102671874B1 KR1020220051274A KR20220051274A KR102671874B1 KR 102671874 B1 KR102671874 B1 KR 102671874B1 KR 1020220051274 A KR1020220051274 A KR 1020220051274A KR 20220051274 A KR20220051274 A KR 20220051274A KR 102671874 B1 KR102671874 B1 KR 102671874B1
Authority
KR
South Korea
Prior art keywords
control
information
model
control information
reinforcement learning
Prior art date
Application number
KR1020220051274A
Other languages
English (en)
Other versions
KR20220168970A (ko
Inventor
주성호
이정훈
김중재
이제열
이동민
김민섭
Original Assignee
주식회사 마키나락스
한온시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마키나락스, 한온시스템 주식회사 filed Critical 주식회사 마키나락스
Priority to KR1020220051274A priority Critical patent/KR102671874B1/ko
Priority to US18/020,682 priority patent/US20240241486A1/en
Priority to PCT/KR2022/008195 priority patent/WO2022265305A1/ko
Publication of KR20220168970A publication Critical patent/KR20220168970A/ko
Application granted granted Critical
Publication of KR102671874B1 publication Critical patent/KR102671874B1/ko

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/36Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
    • G05B11/42Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P. I., P. I. D.
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/041Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a variable is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/047Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators the criterion being a time optimal performance criterion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Feedback Control In General (AREA)

Abstract

본 개시의 일 실시예에 따라 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 최적 제어 수행 방법이 개시된다. 상기 방법은: 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하는 단계; 상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하는 단계; 피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하는 단계; 및 상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하는 단계를 포함할 수 있다.

Description

최적 제어 수행 방법 및 장치 {METHOD AND APPARATUS FOR PERFORMING OPTIMAL CONTROL}
본 발명은 최적 제어 수행 방법에 관한 것으로서, 보다 구체적으로 신경망을 이용하는 강화학습 기반 최적 제어 수행 방법에 관한 것이다.
기존 당업계에서는 에너지 관리를 위한 제어 방법으로 주로 피드백 기반 알고리즘인, PID(Proportional-Integral-Differential, 비례-적분-미분) 제어 알고리즘을 사용해왔다. PID 제어 알고리즘은 제어 변수의 현재 값과 목표 값의 오차에 기초하여 제어를 수행하는 알고리즘이다.
한편, 인공 신경망 기술이 발전함에 따라 최근 당업계에서는 강화학습 기술을 이용하여 제어를 수행하려는 시도가 이루어지고 있다. 그러나 강화학습 기술의 경우 학습 데이터에 의존하는 경향이 있어, 학습 데이터와 상이한 유형의 새로운 데이터에 제대로 대응하지 못하는 문제점이 존재한다.
따라서 당업계에는 기존의 피드백 기반 제어와 강화학습 기반 제어를 조화롭게 사용하는 최적 제어 솔루션에 대한 수요가 존재한다.
한국공개특허 "KR2020-0062887"은 강화학습에 기반하여 시스템의 제어 동작의 품질을 보장하기 위한 장치 및 방법을 개시하고 있다.
본 개시는 전술한 배경기술에 대응하여 안출 된 것으로, 신경망을 이용하는 강화학습 기반 최적 제어 수행 방법의 제공을 목적으로 한다.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 최적 제어 수행 방법이 개시된다. 상기 방법은: 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하는 단계; 상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하는 단계; 피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하는 단계; 및 상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하는 단계를 포함할 수 있다.
대안적인 실시예에서, 상기 상태 정보는 차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득될 수 있다.
대안적인 실시예에서, 상기 상태 정보는 온도 데이터, 과냉도 데이터, 압축기 출력 데이터, 밸브 개폐 데이터, 및 히터 출력 데이터 각각에 관한 상태 변수들 중 적어도 하나의 상태 변수를 포함할 수 있다.
대안적인 실시예에서, 상기 강화학습 제어 모델은 시뮬레이션 모델로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보를 획득하는 단계; 상기 강화학습 제어 모델에 상기 현재 상태 정보를 입력하는 단계; 상기 강화학습 제어 모델에 기초하여 제 1 제어 정보를 산출하는 단계; 상기 시뮬레이션 모델에 산출된 상기 제 1 제어 정보를 입력하는 단계; 및 상기 시뮬레이션 모델로부터 다음 상태 정보 및 보상 정보를 획득하는 단계를 포함하는 학습 방법에 기초하여 학습될 수 있다.
대안적인 실시예에서 상기 피드백 제어 알고리즘은 비례(P) 제어 알고리즘, 비례-적분(PI) 제어 알고리즘 또는 비례-적분-미분(PID) 제어 알고리즘 중 적어도 하나를 포함할 수 있다.
대안적인 실시예에서, 상기 제 1 제어 정보 또는 상기 제 2 제어 정보는, 압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터 중 적어도 하나의 제어 데이터를 포함할 수 있다.
대안적인 실시예에서, 상기 최적 제어 정보를 산출하는 단계는 설정된 결정 조건에 따라, 상기 제 1 제어 정보 또는 상기 제 2 제어 정보 중 하나의 제어 정보를 최적 제어 정보로 결정함으로써 수행될 수 있다.
대안적인 실시예에서, 상기 결정 조건은 상기 제 1 제어 정보와 상기 제 2 제어 정보의 오차 및 사전 결정된 오차 임계값에 기초하는 조건일 수 있다.
대안적인 실시예에서, 상기 최적 제어 정보를 산출하는 단계는 상기 강화학습 제어 모델이 산출하는 확신도(confidence score)에 기초하여 수행될 수 있다.
대안적인 실시예에서, 상기 최적 제어 정보를 산출하는 단계는 상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초한 가중합(weighted sum) 연산의 결과에 기초하여 수행될 수 있다.
대안적인 실시예에서, 상기 가중합 연산을 위한 가중치는, 상기 제 1 제어 정보에 대응되고 사전 결정된 제 1 가중치; 및 상기 제 2 제어 정보에 대응되고 사전 결정된 제 2 가중치를 포함할 수 있다.
대안적인 실시예에서, 상기 가중합 연산을 위한 가중치는, 상기 강화학습 제어 모델이 산출하는 확신도에 따라 결정될 수 있다.
대안적인 실시예에서, 상기 가중합 연산을 위한 가중치는 상기 제 1 제어 정보에 대응되는 제 1 가중치를 상기 제 2 제어 정보에 대응되는 제 2 가중치로 나눈 비율에 있어서, 상기 강화학습 제어 모델이 산출하는 확신도가 높을수록 상기 비율이 큰 값을 갖도록 설정될 수 있다.
대안적인 실시예에서, 상기 강화학습 제어 모델은 차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득된 둘 이상의 상태 정보에 기초하여 지속 학습될 수 있다.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 최적 제어를 수행하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은: 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하는 동작; 상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하는 동작; 피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하는 동작; 및 상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하는 동작을 포함할 수 있다.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 최적 제어를 수행하기 위한 장치가 개시된다. 상기 장치는 하나 이상의 프로세서; 메모리; 및 네트워크부를 포함하고, 그리고 상기 하나 이상의 프로세서는, 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하고, 상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하고, 피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하고, 그리고 상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출할 수 있다.
본 개시는 신경망을 이용하는 강화학습 기반 최적 제어 수행 방법을 제공할 수 있다.
도 1은 본 개시의 일 실시예에 따른 최적 제어를 수행하기 위한 컴퓨팅 장치의 블록 구성도이다.
도 2는 에너지 제어 시스템에 포함된 구성들 중 일부 열 교환을 위한 구성들을 개념적으로 도시한 예시도이다.
도 3은 강화학습 방법을 설명하기 위해 시뮬레이션 모델과 강화학습 제어 모델을 도시한 개념도이다.
도 4는 본 개시에 따른 뉴럴 네트워크를 나타낸 개략도이다.
도 5는 본 개시의 일 실시예에 따른 제 1 제어 정보 및 제 2 제어 정보에 포함된 하나의 제어 변수의 시간에 따른 변화량을 개념적으로 도시한 예시도이다.
도 6은 본 개시의 일 실시예에 따른 제 1 제어 정보 및 제 2 제어 정보에 포함된 하나의 제어 변수의 시간에 따른 변화량을 개념적으로 도시한 예시도이다.
도 7은 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델 및 피드백 제어 알고리즘에 기초하여 최적 제어 정보를 산출하는 과정을 나타내는 흐름도이다.
도 8은 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델을 학습시키는 과정을 나타내는 흐름도이다.
도 9는 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델 및 피드백 제어 알고리즘에 기초하되 다이내믹 모델에 추가적으로 기초하여 최적 제어 정보를 산출하는 과정을 나타내는 흐름도이다.
도 10은 본 개시의 일 실시예에 따라 프로세서가 다이내믹 모델을 학습시키는 과정을 나타내는 흐름도이다.
도 11은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
그리고, “A 또는 B 중 적어도 하나”이라는 용어는, “A만을 포함하는 경우”, “B 만을 포함하는 경우”, “A와 B의 구성으로 조합된 경우”를 의미하는 것으로 해석되어야 한다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예 들로 한정되는 것이 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
도 1은 본 개시의 일 실시예에 따른 최적 제어를 수행하기 위한 컴퓨팅 장치의 블록 구성도이다. 컴퓨팅 장치(100)는 프로세서(110), 메모리(130), 네트워크부(150)를 포함할 수 있다.
프로세서(110)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(110)는 메모리(130)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 본 개시의 일실시예에 따라 프로세서(110)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(110)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(110)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
본 개시의 일 실시예에 따르면, 메모리(130)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(150)가 수신한 임의의 형태의 정보를 저장할 수 있다.
본 개시의 일 실시예에 따르면, 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시에서 네트워크부(150)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 다양한 통신 시스템들을 사용할 수 있다. 본 개시의 일 실시예에 따른 네트워크부(150)는 임의의 형태의 데이터 및 신호 등을 송수신할 수 있는 임의의 유무선 통신 네트워크가 본 개시 내용에서 표현되는 네트워크에 포함될 수 있다.
도 1에 도시된 컴퓨팅 장치(100)에 관한 구성은 컴퓨팅 장치 구성을 간략화 하여 나타낸 예시일 뿐이다. 본 개시의 일 실시예에서 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 컴퓨팅 장치(100)를 구성할 수도 있다.
본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득할 수 있다. 본 개시에 있어서 '상태 정보'라는 용어는 " 제어 대상이 되는 시스템과 관련한 정보"와 상호 교환적으로 사용될 수 있다. 상태 정보에 포함되는 하나 이상의 상태 변수 각각은 제어 대상이 되는 시스템과 관련된 하나 이상의 관측값(i.e. 측정값, 계측값) 각각과 대응될 수 있다. 본 개시의 몇몇 실시예들에서, 상태 정보와 관련된 제어 대상 시스템은 '에너지 제어 시스템'일 수 있다. 에너지 제어 시스템은 건물 또는 차량의 에너지를 제어하기 위한 에너지 제어 시스템일 수 있다.
도 2는 에너지 제어 시스템에 포함된 구성들 중 일부 열 교환을 위한 구성들을 개념적으로 도시한 예시도이다. 에너지 제어 시스템에 포함된 열 교환을 위한 구성들은 제어 서버(미도시), 계측 센서(미도시), 배관(210), 밸브(230, valve), 응축기(250, condenser), 증발기(270, evaporator), 압축기(290, compressor)를 포함할 수 있다.
도 2의 제어 서버(미도시)는 유/무선 통신 방법에 기반하여 전기 신호를 교환하고 에너지 관리 시스템에 포함된 복수의 다른 구성 요소들을 제어하거나 관측할 수 있다. 일 실시예로써 상기 제어 서버는 본 개시의 컴퓨팅 장치(100)와 별도로 존재할 수 있으며, 본 개시의 컴퓨팅 장치(100)와 정보를 교환할 수 있다. 이 경우 제어 서버는 프로세서, 메모리, 네트워크부를 포함하고, 컴퓨팅 장치(100)의 연산 결과에 따른 제어 신호를 수신함으로써 에너지 관리 시스템을 제어할 수 있다.
도 2의 계측 센서(미도시)는 특정 관측값을 측정하기 위한 센서일 수 있다. 계측 센서는 예를 들어 온도 센서, 습도 센서, 초음파 센서, 가속도 센서, 적외선 센서, 시간 센서, 전류 센서, 전압 센서 등을 포함할 수 있다. 본 개시의 상태 정보에 포함된 각각의 상태 변수는 하나 이상의 계측 센서로부터 획득된 센서값에 기초하여 산출될 수 있다.
배관(210)은 열 전달 물질(e.g. 물, 냉각수, 냉매 용액 등)이 이동하는 통로일 수 있다. 밸브(230)는 상기 배관 내부를 유동하는 열 전달 물질의 유량을 조절하기 위한 구성일 수 있다. 응축기(250)는 기체 상태의 열 전달 물질을 액체 상태로 변환시키기 위한 구성요소일 수 있다. 증발기(270)는 액체 상태의 열 전달 물질을 기체 상태로 변환시키기 위한 구성요소일 수 있다. 압축기(290)는 저온, 저압의 열 전달 물질을 압축하여 고온, 고압의 열 전달 물질을 만들기 위한 구성요소일 수 있다.
본 개시의 일 실시예에 있어서, 프로세서(110)는 도 2를 참조하여 서술된 예시적 구성요소들(참조번호 210 내지 290)을 포함하여, 에너지 제어 시스템을 구성하는 복수의 구성요소 중 적어도 일부로부터 상태 정보를 획득할 수 있다.
본 개시에 따른 상태 정보에 포함된 적어도 하나의 상태 변수 각각은 특정 센서에 의해 측정되는 물리량일 수 있다. 예를 들어, 상태 정보는 온도 데이터에 관한 상태 변수를 포함할 수 있다. 온도 데이터는 에너지 제어 시스템 상의 임의의 한 지점에서 온도계에 의해 관측될 수 있다. 상태 정보는 과냉도 데이터에 관한 상태 변수를 포함할 수 있다. 본 개시에 있어서,'과냉도(subcool)'란 에너지 제어 시스템의 제어에 고려되는 물리량일 수 있다. 과냉도는 목표하는 이론적인 응축 온도와 실제 측정 온도의 차이에 의해 결정될 수 있다. 과냉도는 기체 상태의 열 전달 물질이 응축기(250)를 통과할 때 기체에서 액체로 상전이가 일어나는 이론적인 응축 온도와 실제로 액화된 액체 상태의 열 전달 물질이 응축기(250)에서 밸브(230)로 유동하기 직전에 측정된 실제 측정 온도의 차이를 의미하는 물리량일 수 있다. 상기 이론적인 응축 온도는 몰리에르(Morllier) 선도 또는 P-H(압력-엔탈피) 선도의 응축 온도일 수 있다. 상기 측정된 실제 측정 온도는 응축기(250)로부터 뽑아져 나오는 밸브의 시작 지점 부근에서 측정된 온도 값일 수 있다. 과냉도는 이론적인 응축 온도의 계산값 및 실제 측정 온도의 측정값으로부터 획득될 수 있다.
또한, 상태 정보는 압축기 출력 데이터에 관한 상태 변수를 포함할 수 있다. 압축기 출력 데이터는 예를 들어, 압축기에 포함된 프로펠러의 단위 시간당 회전수(e.g. RPM), 압축기에 인가된 전력의 크기, 또는 압축기에 인가된 전압의 크기 등의 형태로 측정될 수 있다. 상태 정보는 밸브 개폐 데이터에 관한 상태 변수를 포함할 수 있다. 밸브 개폐 데이터는 예를 들어, 밸브 개폐 여부를 나타내는 수치 데이터 또는 밸브 개폐 정도를 나타내는 수치 데이터일 수 있다. 상태 정보는 히터 출력 데이터에 관한 상태 변수를 포함할 수 있다. 이 때 히터는 에너지 제어 시스템을 순환하는 열 전달 물질(e.g. 냉각수)을 가열하기 위한 히터일 수 있다. 히터 출력 데이터는 예를 들어, 냉각수를 가열하는데 사용되는 히터에 인가된 전력 또는 전압의 크기 등의 형태로 관측될 수 있다.
도 2를 참조하여 전술된 구성은 본 개시의 제어 대상 및 상태 정보를 설명하기 위한 일 예시일 뿐 본 개시를 제한하지 않으며, 본 개시에 따른 최적 제어 방법은 관측값에 기반하여 제어가 가능한 다양한 시스템에 제한없이 적용될 수 있다.
본 개시의 일 실시예에 따른 프로세서(110)가 획득하는 상태 정보는, 차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득 되는 상태 정보일 수 있다. 본 개시에 있어서 상태 정보는 획득 시점에 따라 서로 구별될 수 있다. 사전 결정된 시간 구간은 제어를 위한 최소 시간 단위로 설정될 수 있으며, 예를 들어 1초, 10초, 1분 등으로 설정될 수 있다. 프로세서(110)는 차량을 실제 구동하는 과정에서 차량 내부 에너지 시스템으로부터 사전 결정된 시간 구간이 지나는 시점별로 상태 정보를 획득할 수 있다. 프로세서(110)는 차량의 실제 운행 과정에서 사전 결정된 시간 구간에 따라 획득되는 복수의 상태 정보에 기초하여 최적 제어 정보를 산출할 수 있다.
본 개시의 일 실시예에 따른 프로세서(110)는 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출할 수 있다. 본 개시내용에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구분하고, 각각 명세서 전체적으로 지시 대상의 일관성을 유지하기 위해 사용되는 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 따라서, 필요에 따라 “제 1 제어 정보” 및 “제 2 정보”는 각각 “제 2 제어 정보” 및 “제 1 제어 정보”로 상호 변경되어 명세서 전체적으로 지시 대상의 일관성을 유지하며 호칭될 수 있다. 피드백 제어 알고리즘에 기반하여 산출되는 제 2 제어 정보에 관하여는 구체적으로 후술한다. 또한 본 개시의 몇몇 실시예들에 있어서, 설명을 위해 둘 이상의 제어 정보를 서로 구별할 필요가 없는 경우, “제 1 제어 정보” 및 “제 2 제어 정보”는 공통적으로 “제어 정보”로 호칭될 수 있다. 제어 정보에는 예를 들어, 압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터 중 적어도 하나의 제어 데이터가 포함될 수 있다. 예를 들어, 압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터를 포함하는 제어 정보에 기초하여 프로세서(110)는 에너지 제어 시스템의 압축기 출력, 밸브 개폐 정도, 히터 출력 등을 조작할 수 있다. 제어 정보에 포함된 하나 이상의 제어 데이터는 각각 에너지 제어 시스템에 있어서 대응되는 구성을 조작하기 위한 '독립 변수'일 수 있다. 본 개시내용에 있어서 '제어 데이터'라는 용어는 '제어 변수'라는 용어와 상호 교환적으로 사용될 수 있다.
본 개시에 있어서 '제어 정보' 및 '상태 정보'는 각각 '독립 변수' 및 '종속 변수'의 지위를 가짐으로써 서로 구분될 수 있다. 상술한 제어 정보와 달리, 상태 정보에 포함된 하나 이상의 상태 변수는 각각 에너지 제어 시스템에 포함된 하나 이상의 센서로부터 관측된 측정값일 수 있다. 각각의 상태 변수는, 제어 정보에 기초하여 에너지 제어 시스템을 조작한 결과 관측되는 값으로서, '종속 변수'로 이해될 수 있다.
제 1 제어 정보를 산출하기 위한 본 개시에 따른 강화학습 제어 모델은 뉴럴 네트워크에 기반하여 동작할 수 있다. 강화학습 제어 모델은 하나 이상의 신경망 레이어를 포함하는 구조를 가질 수 있으며, 각각의 신경망 레이어는 적어도 하나의 노드를 포함할 수 있다. 이하 도 4를 참조하여 강화학습 제어 모델에 포함되는 뉴럴 네트워크의 구조에 관하여 구체적으로 서술한다.
도 4는 본 개시에 따른 뉴럴 네트워크를 나타낸 개략도이다. 본 명세서에 걸쳐 신경망, 인공 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 서로 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 강화학습 방법에 대하여는 자세히 후술한다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
본 개시에 있어서 "강화학습 제어 모델"은 도 4를 참조하여 전술한 뉴럴 네트워크의 구성을 갖는 인공 신경망 모델이되, 강화학습(reinforcement learning) 방법으로 학습된 인공 신경망 모델일 수 있다.
강화학습(reinforcement learning)은 인공 신경망 모델이 입력된 상태(state)에 기초하여 보다 나은 행동(action)을 결정할 수 있도록, 인공 신경망 모델이 선택한 행동에 대해 산출되는 보상(reward)에 기초하여 인공 신경망 모델을 학습시키는 학습 방법의 일종이다. 강화학습 방법은 결정(즉, 행동)에 대해 보상이 주어진다는 점에서 "시행착오를 통한 학습 방법"으로 이해될 수 있다. 강화학습 과정에서 인공 신경망 모델에게 주어지는 보상은 여러 행동의 결과가 누적된 보상일 수 있다. 강화학습은 학습을 통해 여러가지 상태(State)와, 행동(Action)에 따른 보상(Reward)을 고려하여 보상 그 자체 또는 리턴(return, 보상의 총합)이 최대가 되도록 하는 인공 신경망 모델을 생성한다. 본 개시에 있어서 "강화학습 제어 모델"은 행동을 결정하는 주체로서, "에이전트(Agent)"라는 용어와 상호 교환되어 사용될 수 있다. 강화학습과 관련한 기술 분야에서 "환경(Environment, Env)" 또는 "환경 모델"이라는 용어는, "에이전트의 행동을 고려한 결과를 반환하는 모델"을 지칭하기 위한 용어로 사용된다. 환경 모델은 주어진 입력 데이터(e.g. 제어 정보)에 대하여 출력 데이터(e.g. 상태 정보)를 반환하는 모델일 수 있다. 환경 모델은 입력에서 출력에 이르기 위한 모델 구조 또는 입출력 데이터 사이의 인과 관계가 알려지지 않은 모델일 수 있다. 에이전트와 환경은 데이터를 상호 교환하며 작동할 수 있다.
본 개시의 강화학습 제어 모델과 상호 작용하기 위한 환경 모델은, 도 2를 참조하여 상술된 에너지 제어 시스템과 관련된 상태 정보를 생성하는 모델일 수 있다. 본 개시의 환경 모델은 실제 환경에 기반한 모델(i.e. 실제 환경 모델) 및 가상 환경에 기반한 모델(i.e. 시뮬레이션 모델)을 포함할 수 있다. 실제 환경 모델과 시뮬레이션 모델은, 상태 정보를 생성하는 물리 시스템이 실존하는지 여부에 따라 서로 구별될 수 있다. 실제 환경 모델은, 예를 들어, 물리적으로 존재하는 에너지 시스템일 수 있다. 물리적으로 존재하는 에너지 시스템이 환경 모델인 경우, 프로세서(110)는 에너지 시스템에 제어 정보를 전달한 후, 에너지 시스템에 포함된 하나 이상의 센서로부터 획득되는 값에 기초하여 상태 정보를 획득할 수 있다. 시뮬레이션 모델은, 예를 들어, FMU(Functional Mock-up Unit) 모델일 수 있다. FMU 모델은 FMI(Functional Mock-up Interface) 프로토콜을 따르는 모델을 의미하며, 입력에 대해 출력을 반환하기 위한 모델일 수 있다. 프로세서(110)는 FMU 모델에 제어 정보를 전달한 후, FMU 모델로부터 수신된 값에 기초하여 상태 정보를 획득할 수 있다. 본 개시에 따른 상기 실제 환경 모델 및 상기 시뮬레이션 모델은 입력과 출력 사이의 인과관계가 알려지지 않은 채 입력에 대해 출력을 생성한다는 점에서 블랙박스(black box) 모델이라는 공통점을 갖는다.
이하 도 3을 참조하여 본 개시에 따른 강화학습 제어 모델의 학습 방법을 보다 구체적으로 설명한다. 도 3은 강화학습 방법을 설명하기 위해 시뮬레이션 모델과 강화학습 제어 모델을 도시한 개념도이다. 시뮬레이션 모델(330)은 상태 정보 및 보상을 반환하는 주체로서, "환경(env)"으로 이해될 수 있다. 강화학습 제어 모델(310)은 상태 정보 및 보상에 기반하여 행동을 결정하는 주체로서, "에이전트(agent)"로 이해될 수 있다. 본 개시에 있어서 상태 정보는 현재 상태 정보 및 다음 상태 정보를 포함할 수 있다. 현재 상태 정보 및 다음 상태 정보는 각각 해당 상태 정보가 획득된 시점 또는 순서에 따라 구별될 수 있으며, 선후관계에 기초하여 현재 상태 정보() 및 다음 상태 정보()로 각각 명명될 수 있다. 본 개시에 따른 프로세서(110)는 이하의 학습 방법에 관한 제 1 실시예에 기초하여 강화학습 제어 모델을 학습시키기 위한 학습 데이터를 생성할 수 있다.
본 개시에 따른 학습 방법에 관한 제 1 실시예에서, 시뮬레이션 모델(330)은 강화학습 제어 모델(310)이 행동을 결정하는데 근거가 될 수 있는 "현재 상태 정보()"를 산출할 수 있다. 프로세서(110)는 시뮬레이션 모델(330)로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보()를 획득한 후, 강화학습 제어 모델(310)에 상기 현재 상태 정보를 입력할 수 있다.
본 개시에 따른 학습 방법에 관한 제 1 실시예에서, 프로세서(110)는 강화학습 제어 모델(310)에 현재 상태 정보를 입력한 후, 강화학습 제어 모델(310)에 기초하여 제 1 제어 정보를 산출할 수 있다. 강화학습 제어 모델(310)은 임의의 시점 t에 시뮬레이션 모델(330)로부터 획득된 상태 정보()에 기초하여 선택 가능한 복수의 행동(i.e. 제 1 제어 정보)들에 관한 확률 분포를 연산할 수 있다. 프로세서(110)는 연산된 확률 분포에 기초하여 제 1 제어 정보()를 산출할 수 있다. 일례로, 프로세서(110)는 복수의 제어 정보들에 관한 확률 분포 중 가장 큰 값을 갖는 제어 정보를 제 1 제어 정보로 결정할 수 있다.
본 개시에 따른 학습 방법에 관한 제 1 실시예에서, 프로세서(110)는 강화학습 제어 모델(310)에 기초하여 산출된 제 1 제어 정보를 시뮬레이션 모델(330)에 입력할 수 있다. 프로세서(110)는 제 1 제어 정보의 입력 결과로써 시뮬레이션 모델(330)로부터 갱신된 다음 상태 정보()와 보상()을 획득할 수 있다. 시뮬레이션 모델(330)이 보상을 결정하는 기준이 되는 "보상 함수" 또는 시뮬레이션 모델(330)이 강화학습 제어 모델(310)로부터 제어 정보를 수신한 후 다음 상태 정보를 결정하기 위한 기준이 되는 "전이 확률 분포 함수"를 알 수 있는 경우의 강화학습은 "모델 기반(Model-based)" 강화학습으로 호칭될 수 있다. 반면 시뮬레이션 모델(330)의 보상 함수 및 시뮬레이션 모델(330)의 전이 확률 분포 함수를 알 수 없는 경우의 강화학습은 "모델 프리(Model-free)" 강화학습으로 호칭될 수 있다.
본 개시에 따른 프로세서(110)는 전술한 바와 같은 학습 방법에 관한 제 1 실시예에 적어도 일부 기초하여 학습 데이터를 생성하고, 생성된 적어도 하나의 학습 데이터로 강화학습 제어 모델(310)을 학습시킬 수 있다. 예를 들어, 생성된 적어도 하나의 학습 데이터는 현재 상태 정보(), 제 1 제어 정보(), 보상(), 다음 상태 정보() 를 포함할 수 있다.
본 개시에 따른 강화학습 제어 모델은 적어도 하나의 에피소드(episode)에 기초하여 학습될 수 있다. 본 개시내용에서 “에피소드”는 일련의 순서를 갖는 데이터 시퀀스(sequence)를 의미하는 용어로 사용될 수 있다. 에피소드는 N개(N은 1 이상의 자연수)의 원소를 포함하는 복수의 N-튜플(tuple) 데이터들로 구성된 데이터 집합일 수 있다. 에피소드에 포함된 복수의 N-튜플 데이터들은 일련의 순서를 가질 수 있다. N-튜플 데이터에 관한 일례로, N이 '4'인 경우, 각각의 4-튜플 데이터는 현재 상태 정보, 제 1 제어 정보, 보상, 다음 상태 정보를 원소로 포함할 수 있다. N-튜플 데이터에 관한 다른 일례로, N이 '5'인 경우, 각각의 5-튜플 데이터는 현재 상태 정보, 현재 상태 정보에 대응되는 제 1 제어 정보, 보상, 다음 상태 정보, 다음 상태 정보에 대응되는 제 1 제어 정보를 원소로 포함할 수도 있다.
본 개시에 따른 프로세서(110)는, 전술한 학습 방법에 관한 제 1 실시예와 동일 또는 유사한 복수의 단계들을 시작 상태(initial state, t=0)에서 최종 상태(terminal state, t=T)에 이르기까지 반복하여 수행함으로써 하나의 에피소드를 획득할 수 있다. 상기 최종 상태는 기 설정된 종료 조건이 만족될 경우 도출될 수도 있고 기 설정된 개수의 스텝(step)이 진행된 경우 도출될 수도 있다. 상기 스텝(step)은 강화학습 제어 모델이 상태를 수신하고, 행동을 결정한 후, 상기 행동에 대해 보상 또는 갱신된 상태 정보를 수신하는 적어도 하나의 동작 단위를 가리킨다. 기 설정된 스텝의 개수는 임의의 자연수로 설정될 수 있으며, 예를 들어 200개의 스텝으로 구성될 수 있다.
프로세서(110)는 에피소드에 포함된 각각의 스텝마다 학습 데이터를 획득할 수 있다. 예를 들어, 프로세서(110)는 임의의 시점 t에 대해, 강화학습 제어 모델이 환경으로부터 획득한 현재 상태 정보(), 강화학습 제어 모델이 상기 현재 상태 정보에 기초하여 결정하는 행동(), 강화학습 제어 모델이 상기 행동의 결과로서 환경으로부터 획득한 보상(), 및 강화학습 제어 모델이 상기 행동의 결과로서 환경으로부터 획득한 다음 상태 정보()를 [현재 상태 정보(), 행동(), 보상(), 다음 상태 정보()]의 튜플 형태로 학습 데이터로서 메모리(130)에 저장할 수 있다. 상기 행동은 제 1 제어 정보일 수 있다. 상기 학습 데이터의 시점 t는, 상기 강화학습 제어 모델이 결정한 행동의 결과로서 환경으로부터 갱신된 상태 정보를 획득하는 경우 다음 상태에 대한 시점 t+1로 진행될 수 있다.
프로세서(110)는 적어도 하나의 학습 데이터에 기초하여 강화학습 제어 모델을 학습시킬 수 있다. 일례로, 프로세서(110)는 각 스텝이 끝날 때마다 각 스텝에 해당하는 학습 데이터에 기초하여 강화학습 제어 모델을 학습할 수 있다. 다른 일례로, 프로세서(110)는 복수의 스텝을 포함하는 각 에피소드가 끝날 때마다 복수의 스텝 각각에 대한 학습 데이터를 포함하는 학습 데이터 셋에 기초하여 강화학습 제어 모델을 학습할 수 있다. 또 다른 일례로, 프로세서(110)는 사전 결정된 배치(batch) 사이즈의 스텝이 진행된 후, 해당 스텝 각각에 대한 학습 데이터를 포함하는 학습 데이터 셋에 기초하여 강화학습 제어 모델을 학습할 수도 있다. 상기 배치(batch) 사이즈는 임의의 자연수로 사전 결정될 수 있다.
본 개시에 따라 프로세서(110)가 강화학습 제어 모델을 학습하는 과정은 강화학습 제어 모델에 포함된 뉴럴 네트워크의 각 노드 가중치 또는 편향값을 수정하는 단계를 포함할 수 있다. 상기 강화학습 제어 모델에 포함된 뉴럴 네트워크의 각 노드 가중치 또는 편향값을 수정하는 단계는, 프로세서(110)에 의해, 도 4를 참조하여 상술된 뉴럴 네트워크에 관한 역전파(backpropagation) 기법과 동일 또는 유사한 방법으로 수행될 수 있다. 예를 들어, 임의의 시점 t에 관한 학습 데이터(T_t)에 포함된 보상()이 양수인 경우, 프로세서(110)는 상기 학습 데이터(T_t)에 포함된 행동()이 강화되도록 강화학습 제어 모델에 포함된 하나 이상의 노드의 가중치 또는 편향값을 조절할 수 있다. 이 때 강화학습 제어 모델에 포함된 하나 이상의 노드는, 강화학습 제어 모델이 상기 학습 데이터(T_t)에 포함된 상태 정보()를 입력 받은 후 상기 행동()을 결정하는데 관여한 노드일 수 있다.
전술한 강화학습 제어 모델의 학습에 관한 구체적 기재들은 설명을 위한 기재일 뿐, 본 개시를 제한하지 않는다. 또한 도 3을 참조하여 설명된 학습 방법에 관한 일 실시예에서는 강화학습 제어 모델이 가상 환경 모델인 시뮬레이션 모델(330)에 의해 학습되는 단계들을 서술하고 있으나, 실제 환경 모델 또한 가상 환경 모델과 동일한 입출력 관계를 가질 수 있으므로 본 개시에 따른 강화학습 제어 모델은 실제 환경 모델에 의해서도 학습될 수 있다.
학습된 강화학습 제어 모델(310)은, 시뮬레이션 모델(330)로부터 주어지는 보상의 누적값(i.e. 리턴)이 최대가 되도록 각각의 상태 정보에 있어서 행동을 결정할 수 있다. 강화학습 제어 모델(310)이 행동을 결정하는 방법은 예를 들어, 가치 기반(Value-Based) 행동 결정 방법, 정책 기반(Policy-Based) 행동 결정 방법, 가치 및 정책 모두에 기반한 행동 결정 방법에 중 적어도 하나에 기초할 수 있다. 상기 가치 기반 행동 결정 방법은 가치 함수에 기초하여 각 상태에서 최고의 가치(value)를 주는 행동을 결정하는 방법이다. 가치 기반 행동 결정 방법의 예시로는 Q-learning, DQN(Deep Q-Network) 등이 포함될 수 있다. 상기 정책 기반 행동 결정 방법은 가치 함수 없이, 최종 리턴 및 정책 함수에 기초하여 행동을 결정하는 방법이다. 정책 기반 행동 결정 방법의 예시로는 Policy Gradient 기법 등이 포함될 수 있다. 상기 가치 및 정책 모두에 기반한 행동 결정 방법은 정책함수가 행동을 결정하면 가치함수가 행동을 평가하는 방식으로 학습하여 에이전트의 행동을 결정하는 방법이다. 가치 및 정책 모두에 기반한 행동 결정 방법은 예를 들어, Actor-Critic 알고리즘, Soft Actor-Critic 알고리즘, A2C 알고리즘, A3C 알고리즘 등이 포함될 수 있다.
본 개시의 일 실시예에 따른 프로세서(110)는 피드백(feedback) 제어 알고리즘에 기초하여 상태 정보로부터 제 2 제어 정보를 산출할 수 있다. 프로세서(110)는 피드백 제어 알고리즘을 이용하여 획득된 상태 정보를 연산함으로써 제 2 제어 정보를 산출할 수 있다. 제 2 제어 정보는 강화학습 제어 모델이 산출하는 제 1 제어 정보와 동일 또는 유사한 제어 데이터들로 구성될 수 있다. 제 2 제어 정보에는 예를 들어, 압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터 중 적어도 하나의 제어 데이터가 포함될 수 있다. 본 개시의 피드백 제어 알고리즘은 비례-적분-미분(PID) 제어 알고리즘에 기초할 수 있다. PID 제어는 수학식 1과 같이 표현될 수 있다.
[수학식 1]
수학식 1에 있어서, 는 비례 이득 상수(i.e. 비례 게인)를 나타낸다. 는 적분 이득 상수(i.e. 적분 게인)를 나타낸다. 는 미분 이득 상수(i.e. 미분 게인)를 나타낸다. 는 오차(즉, 제어 대상 물리량의 목표값과 현재값의 차이)를 나타낸다. 수학식 1에 의해 표현되는 PID 제어 알고리즘은 오차에 대한 비례 성분, 적분 성분, 미분 성분을 종합하여 제어값을 산출하는 알고리즘일 수 있다. 프로세서(110)는 수학식 1과 같이, 오차에 비례 이득 상수를 곱하여 획득되는 비례 성분(), 시간에 따른 오차의 적분값에 적분 이득 상수를 곱하여 획득되는 적분 성분(), 시간에 따른 오차의 미분값에 미분 이득 상수를 곱하여 획득되는 미분 성분()을 각각 합산하여 제어 대상을 제어하기 위한 출력값(output)을 산출할 수 있다. 본 개시의 피드백 제어 알고리즘은 비례(P) 제어 알고리즘 또는 비례-적분(PI) 제어 알고리즘에 기초할 수도 있다. 비례 제어 알고리즘은 수학식 1에 있어서 비례 성분을 이용하여 제어 대상의 제어 값을 산출하는 알고리즘이다. 비례-적분(PI) 제어 알고리즘은 수학식 1에서 있어서 비례 성분 및 적분 성분을 이용하여 제어 대상의 제어 값을 산출하는 알고리즘이다.
본 개시에 따른 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보에 기초하여 최적 제어 정보를 산출할 수 있다. 전술한 바와 같이 제 1 제어 정보는 강화학습 제어 모델에 의해 상태 정보로부터 산출된 정보이고, 제 2 제어 정보는 피드백 제어 알고리즘에 기초하여 상태 정보로부터 산출된 정보이다. 본 개시에 있어서 “최적 제어 정보”는 프로세서(110)가 제 1 제어 정보 및 제 2 제어 정보에 기초하여 제어를 수행하기 위해 실제로 결정된 제어 정보일 수 있다.
본 개시에 따른 최적 제어 정보 산출에 관한 제 1 실시예에 있어서, 프로세서(110)는 설정된 결정 조건에 따라, 상기 제 1 제어 정보 또는 상기 제 2 제어 정보 중 하나의 제어 정보를 최적 제어 정보로 결정함으로써 최적 제어 정보를 산출할 수 있다. 설정된 결정 조건은 제 1 제어 정보와 제 2 제어 정보의 오차 및 사전 결정된 오차 임계값에 기초하는 조건일 수 있다. 일례로, 제 1 제어 정보와 제 2 제어 정보의 오차는 제 1 제어 정보와 제 2 제어 정보에 각각 포함되되, 서로 대응되는 하나 이상의 제어 변수들 사이의 오차의 평균에 기초할 수 있다. 예를 들어, 제 1 제어 정보에 포함된 하나 이상의 제어 변수들이 [A1, B1, C1, D1]로 표현되고 제 2 제어 정보에 포함된 하나 이상의 제어 변수들이 [A2, B2, C2, D2]로 표현된다고 가정하자. 이 때 제 1 제어 정보와 제 2 제어 정보의 오차는 'A1, A2의 차이값', 'B1, B2의 차이값', 'C1, C2의 차이값', 'D1, D2의 차이값'들의 평균값으로 결정될 수 있다. 사전 결정된 오차 임계값은 제 1 제어 정보와 제 2 제어 정보의 오차의 상한선 역할을 하기 위한 값으로 임의의 실수로 결정될 수 있다. 이하 도 5를 참조하여 본 개시에 따른 최적 제어 정보 산출에 관한 제 1 실시예를 설명한다.
도 5는 본 개시의 일 실시예에 따른 제 1 제어 정보 및 제 2 제어 정보에 포함된 하나의 제어 변수의 시간에 따른 변화량을 개념적으로 도시한 예시도이다. 도 5의 그래프에서 x축은 시간 축일 수 있다. 도 5의 그래프에서 y축은 제어 정보에 포함된 임의의 제어 변수를 나타낼 수 있다. 예를 들어, 도 5의 y축은 압축기 또는 히터의 현재 출력일 수 있으며 밸브의 개폐 정도를 나타낼 수도 있다.
도 5에 도시된 실선 부분 그래프들은, 강화학습 제어 모델로부터 산출된 제 1 제어 정보를 이용하여 제어 대상 시스템을 제어함에 있어서 시간에 따른 제어 변수의 변화를 표현한다. 실선 부분 그래프의 종점들(511, 531, 551)은 각각의 시간 구간에서 마지막 시점에 해당하는 제어 변수 값을 나타낸다. 도 5에 있어서 각 실선 부분 그래프의 종점들은 시간 순서에 따라 제 1-1 제어 변수(511), 제 1-2 제어 변수(531), 제 1-3 제어 변수(551)로 간략히 호칭될 수 있다.
도 5에 도시된 점선 부분 그래프들은, 피드백 제어 알고리즘에 기초하여 산출된 제 2 제어 정보를 이용하여 제어 대상 시스템을 제어함에 있어서 시간에 따른 제어 변수의 변화를 표현한다. 점선 부분 그래프의 종점들(513, 533, 553)은 각각의 시간 구간에서 마지막 시점에 해당하는 제어 변수를 나타낸다. 도 5에 있어서 각 점선 부분 그래프의 종점들은 시간 순서에 따라 제 2-1 제어 변수(513), 제 2-2 제어 변수(533), 제 2-3 제어 변수(553)로 간략히 호칭될 수 있다.
프로세서(110)는 각 시간 구간마다 제 1 제어 정보와 제 2 제어 정보의 오차를 계산하고, 계산된 오차를 사전 결정된 오차 임계값과 비교하여 최종 제어 정보를 산출할 수 있다. 도 5의 참조번호 570은 사전 결정된 오차 임계값을 개념적으로 도시한 선분을 가리킨다. 예를 들어, 프로세서(110)는 제 1 시점에, 제 1-1 제어 변수(511)와 제 2-1 제어 변수(513)의 오차를 계산하고 이를 사전 결정된 오차 임계값(570)과 비교하여 제 1-1 제어 변수(511) 또는 제 2-1 제어 변수(513) 중 하나의 값을 제 1 최종 제어 변수로 선택할 수 있다. 도 5에서 제 1-1 제어 변수(511)와 제 2-1 제어 변수(513)의 차이값은 사전 결정된 오차 임계값(570)보다 크므로, 프로세서(110)는 제 2-1 제어 변수(513)를 선택할 수 있다. 프로세서(110)는 제 1 시점 이후 제 2 시점에, 제 1-2 제어 변수(531)와 제 2-2 제어 변수(533)의 오차를 계산하고 이를 사전 결정된 오차 임계값(570)과 비교하여 마찬가지로 제 1-2 제어 변수(531) 또는 제 2-2 제어 변수(533) 중 하나를 최종 제어 변수로 선택할 수 있다. 또한, 프로세서(110)는 제 2 시점 이후의 제 3 시점에 있어서 제 1-3 제어 변수(551) 또는 제 2-3 제어 변수(553) 중 하나를 최종 제어 변수로 선택할 수 있다.
도 5를 참조하여 서술된 최종 제어 정보 산출에 관한 제 1 실시예는 설명을 위한 구체적 기재일 뿐, 그 구체적 기재가 본 개시를 제한하지 않는다. 본 개시는 강화학습 제어 모델에 기반한 제어 정보와 피드백 기반 알고리즘에 기초한 제어 정보 사이의 오차와 오차 임계값을 비교하여 두 제어 정보 중 하나의 제어 정보를 최종 제어 정보로 결정하는 다양한 실시예를 제한없이 포함할 수 있다.
본 개시의 최적 제어 정보 산출에 관한 제 1 실시예를 따를 경우, 프로세서(110)는 강화학습 제어 모델에 기초한 제어를 수행하되, 종래의 PID 제어와의 차이에 관한 상한값을 설정할 수 있다. 이에 따라 전체적인 관점에서 최소한 PID 제어의 성능을 보장하되 각 부분에서 PID 제어와 임계 오차 내에 존재하되, 효율이 향상된 강화학습 기반 제어를 수행할 수 있게 된다. 기본적으로 강화학습 기반 제어는 '관련 데이터를 학습'한 결과에 따른 제어라는 점에서 단순 피드백 제어보다는 높은 효율을 갖는다. 다만 '데이터를 학습'한다는 측면에서 컴퓨팅 장치(100)에 학습된 데이터와 상이한 데이터가 입력될 경우, 프로세서(110)는 사용자가 예상치 못한 조작을 수행할 우려가 있다. 따라서 본 개시의 최적 제어 정보 산출에 관한 제 1 실시예는, 종래의 PID 제어와의 차이의 최대값을 설정함으로써 전체적으로 예상 외의 조작을 방지하되, 각 시간 구간에 있어서는 강화학습 제어 모델에 기초하여 제어를 수행함으로써 최적의 효율을 달성할 수 있는 방법을 개시한다.
본 개시의 몇몇 실시예들에 있어서, 프로세서(110)는 최적 제어 정보를 산출하기 위해 제 1 제어 정보 및 제 2 제어 정보에 기초한 가중합(weighted sum) 연산의 결과에 기초할 수 있다.
본 개시에 따른 최적 제어 정보 산출에 관한 제 2 실시예에 있어서, 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보에 기초하여 가중합(weighted sum) 연산을 수행하되, 각각의 제어 정보에 대응되는 사전 결정된 가중치를 이용할 수 있다. 프로세서(110)는 제 1 제어 정보에 대응되고 사전 결정된 “제 1 가중치” 및 제 2 제어 정보에 대응되고 사전 결전된 “제 2 가중치”를 이용하여 가중합 연산을 수행할 수 있다. 제 1 가중치 및 제 2 가중치는 합이 1이 되도록 각각 적절한 실수로 설정될 수 있다. 제 1 가중치 및 제 2 가중치는 프로세서(110)에 의해 두 값이 일정한 비율을 이루도록 적절한 실수로 설정될 수 있다. 프로세서(110)는 외부 서버로부터 네트워크부(150)를 통해 제 1 가중치 및 제 2 가중치를 위한 값을 수신함으로써 각각의 가중치를 설정할 수 있다. 또한 프로세서(110)는 컴퓨팅 장치(100)에 포함된 입력부(미도시)를 통해 사용자로부터 직접 제 1 가중치 및 제 2 가중치를 수신함으로써 각각의 가중치를 설정할 수 있다.
제 2 실시예에 있어서 프로세서(110)는 제 1 제어 정보에 대응되는 제 1 가중치를 '0.1', 제 2 제어 정보에 대응되는 제 2 가중치를 '0.9'으로 설정할 수 있다. 이 때 제 1 제어 정보에 대응되는 제 1 가중치와 제 2 제어 정보에 대응되는 제 2 가중치의 비율은 1:9으로, 강화학습 제어 모델의 학습이 많이 진행되지 못한 관계로 강화학습 제어 모델에 기초한 제 1 제어 정보의 신뢰도가 낮은 상태에서 설정된 가중치 값일 수 있다. 다른 일례로, 프로세서(110)는 제 1 제어 정보에 대응되는 제 1 가중치를 '0.8', 제 2 제어 정보에 대응되는 제 2 가중치를 '0.2'로 설정할 수 있다. 이 때 제 1 제어 정보에 대응되는 제 1 가중치와 제 2 제어 정보에 대응되는 제 2 가중치의 비율은 4:1로, 강화학습 제어 모델의 학습이 원활히 진행되어 강화학습 제어 모델에 기초하여 산출된 제 1 제어 정보의 신뢰도가 높은 상태에서 설정된 가중치 값일 수 있다. 전술한 예시적 기재 외에도 제 1 가중치와 제 2 가중치는 서로 일정한 비율을 갖기 위한 다양한 값으로 설정될 수 있다.
최적 제어 정보 산출에 관한 제 2 실시예에서 프로세서(110)는 사전 결정된 제 1 가중치와 제 1 제어 정보를 곱함으로써 강화학습 기반 제어 정보 관련 성분을 획득하고, 사전 결정된 제 2 가중치와 제 2 제어 정보를 곱함으로써 피드백 제어 알고리즘 기반 제어 정보 관련 성분을 획득할 수 있다. 그 후 프로세서(110)는 강화학습 기반 제어 정보 관련 성분 및 피드백 제어 알고리즘 기반 제어 정보 관련 성분을 합산함으로써 최적 제어 정보를 산출할 수 있다.
본 개시의 최적 제어 정보 산출에 관한 제 2 실시예에 따를 경우, 프로세서(110)는 각기 다른 유형의 알고리즘들을 사용한 결과로서 도출된 제 1 제어 정보 및 제 2 제어 정보를 모두 고려하되, 각 제어 정보를 적절한 비율로 반영하여 최적 제어 정보를 산출할 수 있다. 이는 입력 데이터에 대한 민감도가 낮아 안정적 제어를 가능케하는 피드백 제어 방법(e.g. PID 제어)과 학습 데이터가 입력될 경우 효율에 관한 최적의 제어를 가능케하는 강화학습 기반 제어 방법을 적절히 혼합하여 최종 제어 정보를 산출하는 효과를 갖는다.
본 개시에 따른 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도(confidence score)에 기초하여 제 1 제어 정보 및 제 2 제어 정보에 기초하여 최적 제어 정보를 산출할 수 있다. 본 개시내용에 있어서 강화학습 제어 모델이 산출하는 “확신도” 는, 강화학습 제어 모델이 제 1 제어 정보를 산출함에 있어서 제 1 제어 정보와 함께 산출하는 신뢰 점수일 수 있다. 뉴럴 네트워크 구조를 갖는 강화학습 제어 모델은 최종적으로 산출되는 확신도에 기초하여 학습될 수 있다. 또한, 강화학습 제어 모델은 추론 과정에서도 산출된 제어 정보 및 제어 정보에 대한 확신도를 산출할 수 있다.
프로세서(110)는 강화학습 제어 모델이 산출하는 확신도가 높을수록 제 1 제어 정보를 크게 반영함으로써 제 1 제어 정보 및 제 2 제어 정보에 기초하여 최적 제어 정보를 산출할 수 있다. 이하 제 3 실시예에 관한 서술을 통해, 강화학습 제어 모델이 산출하는 확신도에 기초한 최적 제어 방법을 구체적으로 설명한다.
본 개시에 따른 최적 제어 정보 산출에 관한 제 3 실시예에 있어서, 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보에 기초하여 가중합(weighted sum) 연산을 수행하되, 강화학습 제어 모델이 산출하는 확신도에 따라 가중합 연산을 위한 가중치를 결정할 수 있다.
제 3 실시예에 관한 일례로, 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도를 제 1 제어 정보에 대응되는 제 1 가중치로 설정할 수 있다. 예를 들어 강화학습 제어 모델이 산출하는 확신도의 점수 범위가 0 이상 1 이하일 경우, 프로세서(110)는 확신도가 높을수록 제 1 제어 정보에 큰 값의 가중치를 부여하기 위해 확신도 값을 그대로 이용할 수 있다. 프로세서(110)는 제 1 제어 정보에 대응되는 가중치를 '확신도'로 설정하고, 그리고 제 2 제어 정보에 대응되는 가중치를 '(1 - 확신도)'로 설정함으로써, 최적 제어 정보를 산출할 수 있다. 다른 예를 들어 강화학습 제어 모델이 산출하는 확신도의 점수 범위가 0 이상 1 이하가 아닐 경우에도, 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도의 범위를 [0,1] 범위로 변환(e.g. 스케일링)하고, 이에 기초하여 제 1 제어 정보 및 제 2 제어 정보 각각에 대응되는 가중치를 설정할 수도 있다.
제 3 실시예에 관한 다른 일례로, 프로세서(110)는 제 1 제어 정보에 대응되는 제 1 가중치를 제 2 제어 정보에 대응되는 제 2 가중치로 나눈 비율에 있어서, 강화학습 제어 모델이 산출하는 확신도가 높을수록 상기 비율이 큰 값을 갖도록 가중합 연산을 위한 가중치를 설정할 수 있다. 최적 제어 정보를 산출하기 위한 제 1 제어 정보 및 제 2 제어 정보의 반영 비율은 실질적으로 제 1 가중치와 제 2 가중치의 비율로 나타낼 수 있다. 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도가 높을수록 제 1 가중치를 제 2 가중치로 나눈 비율이 커지도록 가중치를 설정할 수 있다. 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도에 관한 복수의 구간(e.g. [0, 0.3], [0.3, 0.5], [0.5, 0.9], [0.9, 1] 등)을 설정하고, 각각의 제어 시점에 강화학습 제어 모델이 산출하는 확신도에 따라 제 1 가중치 및 제 2 가중치의 비율, 제 1 가중치 값, 및 제 2 가중치 값을 결정할 수 있다. 이하 도 6을 참조하여 본 개시에 따른 최적 제어 정보 산출에 관한 제 3 실시예를 설명한다.
도 6은 본 개시의 일 실시예에 따른 제 1 제어 정보 및 제 2 제어 정보에 포함된 하나의 제어 변수의 시간에 따른 변화량을 개념적으로 도시한 예시도이다. 도 6의 x축과 y축은 도 5와 마찬가지로 설명될 수 있다. 도 6의 x축은 시간 축일 수 있으며, y축은 제어 정보에 포함된 임의의 제어 변수(e.g. 압축기의 출력)를 나타낼 수 있다.
도 6에 도시된 실선 부분 그래프들은, 도 5와 유사하게, 강화학습 제어 모델로부터 산출된 제 1 제어 정보를 이용하여 제어 대상 시스템을 제어함에 있어서 시간에 따른 제어 변수의 변화를 표현한다. 실선 부분 그래프의 종점들(611, 631, 651)은 각각의 시간 구간에서 마지막 시점에 해당하는 제어 변수 값을 나타낸다. 실선 부분 그래프의 종점들(611, 631, 651)은 시간 순서에 따라 제 1-1 제어 변수(611), 제 1-2 제어 변수(631), 제 1-3 제어 변수(651)로 간략히 호칭될 수 있다.
도 6에 도시된 점선 부분 그래프들은, 도 5와 유사하게, 피드백 제어 알고리즘에 기초하여 산출된 제 2 제어 정보를 이용하여 제어 대상 시스템을 제어함에 있어서 시간에 따른 제어 변수의 변화를 표현한다. 점선 부분 그래프의 종점들(613, 633, 653)은 각각의 시간 구간에서 마지막 시점에 해당하는 제어 변수 값을 나타낸다. 도 6에 있어서 각 점선 부분 그래프의 종점들은 시간 순서에 따라 제 2-1 제어 변수(613), 제 2-2 제어 변수(633), 제 2-3 제어 변수(653)로 간략히 호칭될 수 있다.
프로세서(110)는 제 1 시점에 있어서, 제 1-1 제어 변수(611)와 제 2-1 제어 변수(613)를 가중합하여 제 1 최종 제어 변수(615)를 산출할 수 있다. 이 때 강화학습 제어 모델로부터 제 1-1 제어 변수(611)와 함께 산출된 확신도가 낮은 값을 가지는 관계로, 프로세서(110)는 제 1 최종 제어 변수가 제 2-1 제어 변수에 더 가까운 값으로 결정되도록, 제 1 가중치와 제 2 가중치의 비율을 설정할 수 있다. 제 1 시점 이후에도 프로세서(110)는 강화학습 제어 모델 및 피드백 제어 알고리즘 각각에 기반하여 제어 변수를 계속하여 시간에 따라 산출할 수 있다.
프로세서(110)는 제 2 시점에 있어서, 제 1-2 제어 변수(631)와 제 2-2 제어 변수(633)를 가중합하여 제 2 최종 제어 변수(635)를 산출할 수 있다. 이 경우에도 프로세서(110)는 강화학습 제어 모델이 제 1-2 제어 변수(631)와 함께 산출한 확신도에 기초하여, 결과적으로 제 2 최종 제어 변수(635)가 제 2-2 제어 변수(633)에 더 가까운 값을 갖도록 가중치를 설정할 수 있다.
프로세서(110)는 제 3 시점에 있어서, 제 1-3 제어 변수(651)와 제 2-3 제어 변수(653)를 가중합하여 제 3 최종 제어 변수를 산출할 수 있다. 이 때, 강화학습 제어 모델이 산출하는 확신도가 1에 가까운 값을 가질 경우, 프로세서(110)는 제 2-3 제어 변수(653) 그 자체 또는 제 2-3 제어 변수(653)와 근접한 값으로 제 3 최종 제어 변수를 결정하고 지속적으로 제어 대상 시스템을 제어할 수 있다.
도 6을 참조하여 전술된 기재는 설명을 위한 구체적인 기재일 뿐 본 개시를 제한하지 않으며, 본 개시에 따른 제 3 실시예는 강화학습 제어 모델이 산출하는 확신도에 기초하여 가중합 연산을 위한 제 1 제어 정보에 대응되는 가중치 및 제 2 제어 정보에 대응되는 가중치를 결정하는 다양한 실시예들을 제한없이 포함한다.
이하에서는 본 개시에 따른 최적 제어 정보 산출에 관한 몇몇 실시예들을 설명하기에 앞서, 적어도 하나의 상태 변수를 포함하는 상태 정보의 샘플 유사도를 결정하기 위한 '다이내믹 모델'에 관하여 설명한다.
본 개시에 있어서 '다이내믹 모델(DYNAMIC MODEL)'이라는 용어는 강화학습 제어 모델과 상호 작용하는, 환경(Environment) 모델의 동작을 모사하기 위한 모델을 지칭할 수 있다. 다이내믹 모델은 실제 환경 모델 또는 시뮬레이션 모델의 동작을 모사하기 위한 모델일 수 있다. 다이내믹 모델은 주어진 입력 데이터에 대해 출력 데이터를 생성하기 위해 프로세서(110)가 적어도 일부 기초하는, 일정한 연산 순서를 갖기 위한 데이터들의 집합일 수 있다. 다이내믹 모델에 포함될 수 있는 데이터의 집합에는, 예를 들어, 뉴럴 네트워크를 구성하기 위한 노드들의 집합, 의사 결정 트리를 구성하기 위한 노드들의 집합이 포함될 수 있다. 일례로, 다이내믹 모델은 복수 개의 의사결정 트리(Decision tree)로 구성된 모델일 수 있다. 다른 일례로, 다이내믹 모델은 도 4를 참조하여 전술된 바와 같은 뉴럴 네트워크 기반 모델일 수 있다. 또한 다이내믹 모델은 시계열 데이터들의 인과관계를 고려하기 위한 RNN(Recurrent Neural Network) 또는 LSTM(Long Short Term Memory) 모델일 수도 있다. 본 개시에 있어서, 실제 환경 모델 및 시뮬레이션 모델은 입력 데이터와 출력 데이터 사이의 인과관계를 알 수 없고, 단순히 입력이 주어지면 상응하는 출력이 도출되는 특성을 가질 수 있다. 반면 본 개시에 따른 다이내믹 모델은 상태 정보와 제어 정보를 입력하여 예측 상태 정보(i.e. 다음 시점의 상태 정보)를 출력하도록 “학습될 수 있는 데이터 집합”으로서, 입력 데이터와 출력 데이터 사이의 인과관계에 대한 학습이 가능하다는 점에서 상기 실제 환경 모델 및 상기 시뮬레이션 모델과 구별될 수 있다.
다이내믹 모델의 입력 데이터는 적어도 하나의 상태 변수를 포함하는 상태 정보 및 적어도 하나의 제어 데이터를 포함하는 제어 정보를 포함할 수 있다. 상태 정보 및 제어 정보의 구체적 예시들에 관하여는 전술한 바 중복된 내용에 대한 서술은 생략한다. 다이내믹 모델의 출력 데이터는 예측 상태 정보를 포함할 수 있다. 본 개시 내용에 있어서 '예측 상태 정보'는 상태 정보와 동일한 형태의 데이터일 수 있다. 다이내믹 모델의 출력 데이터에 포함된 예측 상태 정보는 입력 데이터에 포함된 상태 정보에 대응되는 시점보다 후순하는 시점과 대응될 수 있다. 다이내믹 모델은 현재 상태 정보, 그리고 현재 상태 정보에 대한 강화학습 제어 모델의 제어 정보를 고려하여 다음 상태 정보를 예측하고 예측된 다음 상태 정보를 '예측 상태 정보'로서 출력할 수 있다. 즉, 본 개시에 따른 다이내믹 모델은 현재 상태 정보 및 제어 정보를 입력으로 받아 다음 상태 정보를 예측하는 예측 상태 정보를 출력할 수 있다.
본 개시에 따른 다이내믹 모델은, 가상 환경 모델에 해당하는 시뮬레이션 모델(e.g. FMU 모델)에 기초하여 학습될 수 있다. 시뮬레이션 모델에 관하여는 도 3을 참조하여 전술한 바, 중복되는 내용의 서술은 생략한다. 다이내믹 모델은 입력 데이터(e.g. 현재 상태 정보 및 제어 정보)에 대한 출력 데이터(e.g. 예측 상태 정보)의 정답 데이터(다음 상태 정보)가 존재한다는 점에서 지도 학습(supervised learning)될 수 있다. 지도 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터(즉, 라벨링된 학습 데이터)를 사용하여 학습을 진행할 수 있다. 예를 들어, 정답이 라벨링된 학습 데이터가 다이내믹 모델에 입력되는 경우, 다이내믹 모델의 출력(예측 상태 정보)과 학습 데이터의 라벨(다음 상태 정보)을 비교함으로써 오류(error)가 계산될 수 있다. 이하 구체적으로 본 개시에 따른 강화학습 제어 모델 및 시뮬레이션 모델을 이용하여 다이내믹 모델을 학습시키는 일 실시예를 설명한다.
본 개시의 다이내믹 모델을 학습시키기 위한 일 실시예에 있어서, 프로세서(110)는 시뮬레이션 모델로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보()를 획득할 수 있다. 시뮬레이션 모델은 입력과 출력의 상관관계를 알 수 없는 관계로 블랙박스로 취급될 수 있다. 프로세서(110)는 시뮬레이션 모델로부터 획득된 현재 상태 정보()를 강화학습 제어 모델에 입력하고, 강화학습 제어 모델로부터 제어 정보()를 획득할 수 있다. 강화학습 제어 모델은 현재 상태 정보()를 입력 받아 제어 정보()를 산출하도록 학습이 완료된 뉴럴 네트워크일 수도 있고, 다이내믹 모델과 함께 학습되고 있는 뉴럴 네트워크일 수도 있다. 프로세서(110)는 다이내믹 모델에, 시뮬레이션 모델로부터 획득된 현재 상태 정보() 및 강화학습 제어 모델로부터 획득된 제어 정보()를 입력하고, 입력의 결과로 다이내믹 모델로부터 예측 상태 정보()를 획득할 수 있다. 프로세서(110)는 제어 정보()를 시뮬레이션 모델에 반환함으로써 상기 시뮬레이션 모델로부터 다음 상태 정보()를 획득할 수 있다. 프로세서(110)는 예측 상태 정보()와 다음 상태 정보()를 비교하여 다이내믹 모델을 학습시킬 수 있다. 예를 들어 프로세서(110)는 예측 상태 정보()와 다음 상태 정보()의 오차를 다이내믹 모델에 역전파하는 알고리즘을 이용하여, 다이내믹 모델이 현재 상태 정보로부터 다음 상태 정보를 보다 잘 예측할 수 있도록 다이내믹 모델을 지도 학습시킬 수 있다. 예측 상태 정보와 다음 상태 정보의 오차에 관한 일례로, 프로세서(110)는 예측 상태 정보와 다음 상태 정보에 각각 포함된 하나 이상의 상태 변수들 중 서로 대응되는 상태 변수 쌍 사이의 차이값에 기초하여 오차를 계산할 수 있다. 예를 들어, 다음 상태 정보에 포함된 상태 변수들이 [, , , ]로 표현되고 예측 상태 정보에 포함된 상태 변수들이 [, , , ]로 표현된다고 가정하자. 이 때 오차는 “, 의 차이값”, “, 의 차이값”, “, 의 차이값”, “, 의 차이값”, 들의 평균값에 기초하여 결정될 수 있다.
본 개시의 일 실시예에 따른 프로세서(110)는 학습된 다이내믹 모델을 이용하여 상태 정보에 관한 샘플 유사도를 결정할 수 있다. 본 개시내용에 있어서 상태 정보의 '샘플 유사도'는, 강화학습 제어 모델이 학습되는 과정에서 사용된 학습 데이터와 강화학습 제어 모델을 실제 이용되는 추론 과정에서 획득된 데이터 간의 유사 정도를 나타내기 위한 지표(index)일 수 있다. 프로세서(110)가 샘플 유사도를 결정하기 위한 대상이 되는 상태 정보는 학습 데이터가 아닌 실제 환경으로부터 획득된 상태 정보일 수 있다. 프로세서(110)는 획득된 상태 정보 및 다이내믹 모델에 기초하여 산출된 예측 상태 정보에 기초하여 샘플 유사도를 결정할 수 있다. 구체적인 설명을 위해, 프로세서(110)가 시점 t-1의 상태 정보() 및 시점 t의 상태 정보()를 시간 순서에 따라 순차적으로 획득하였다고 가정하자. 이때 프로세서(110)는 시점 t-1의 상태 정보()에 관한 제어 정보() 또한 강화학습 제어 모델로부터 획득할 수 있다. 프로세서(110)는 시점 t-1의 상태 정보() 및 이에 관한 제어 정보()에 기초하여 다이내믹 모델로부터 시점 t에 관한 예측 상태 정보()를 획득할 수 있다. 프로세서(110)는 시점 t의 상태 정보()를 획득하고 상기 예측 상태 정보()와 시점 t의 상태 정보()를 비교하여 샘플 유사도를 결정할 수 있다.
본 개시에 따른 프로세서(110)는 상태 정보 및 예측 상태 정보 사이에서 계산되는 오차가 클수록 샘플 유사도를 사전 결정된 유사도 범위 내에서 작은 값으로 결정할 수 있다. 예를 들어 샘플 유사도에 관한 사전 결정된 유사도 범위는 [0, 1]일 수 있다. 프로세서(110)는 상태 정보 및 예측 상태 정보의 오차가 '0'인 경우 샘플 유사도를 '1'로 결정할 수 있다. 프로세서(110)는 상태 정보 및 예측 상태 정보의 오차가 임계치(e.g. 10)를 넘는 경우 샘플 유사도를 '0'으로 결정할 수 있다. 프로세서(110)는 상태 정보 및 예측 상태 정보의 오차가 임계치에 가까울수록 샘플 유사도를 '0'에 가까운 값으로 결정할 수 있다.
본 개시의 몇몇 실시예들에 있어서, 프로세서(110)는 제 1 제어 정보, 제 2 제어 정보 그리고 다이내믹 모델을 통해 산출된 샘플 유사도에 기초하여 최적 제어 정보를 산출할 수 있다. 이하 프로세서(110)가 본 개시에 따른 다이내믹 모델에 기반하여 최적 제어 정보를 산출하는 제 4 실시예를 자세히 설명한다.
최적 제어 정보 산출에 관한 제 4 실시예에 있어서, 프로세서(110)는 제 1 제어 정보, 제 2 제어 정보 및 샘플 유사도에 기초한 가중합(weighted sum) 연산의 결과에 따라 최적 제어 정보를 산출할 수 있다. 프로세서(110)는 샘플 유사도 기초하여 가중합 연산에 필요한 가중치를 결정할 수 있다. 프로세서(110)는 샘플 유사도 기초하여 제 1 제어 정보 및 제 2 제어 정보 각각에 대응되는 가중치를 결정할 수 있다. 프로세서(110)는 결정된 가중치에 따라 가중합 연산을 수행하고 최적 제어 정보를 산출할 수 있다. 일례로, 샘플 유사도에 관한 사전 결정된 유사도 범위가 [0, 1]이고 다이내믹 모델이 산출한 샘플 유사도가 0.7인 경우, 프로세서(110)는 강화학습 제어 모델이 산출한 제 1 제어 정보에 대한 제 1 가중치를 0.7, 피드백 제어 알고리즘에 기반한 제 2 제어 정보에 대한 제 2 가중치를 0.3으로 설정하여 최종 제어 정보를 산출할 수 있다.
프로세서(110)는 제 1 제어 정보에 대응되는 제 1 가중치를 제 2 제어 정보에 대응되는 제 2 가중치로 나눈 비율에 있어서, 샘플 유사도가 높을수록 상기 비율이 큰 값을 갖도록 각각의 가중치를 설정할 수 있다. 일례로, 샘플 유사도에 관한 사전 결정된 유사도 범위가 [0, 1]이고 다이내믹 모델이 산출한 샘플 유사도가 1인 경우, 프로세서(110)는 제 1 가중치를 제 2 가중치로 나눈 비율 값이 무한대와 같은 큰 수가 되도록 제 1 가중치 및 제 2 가중치를 결정할 수 있다. 다른 일례로, 샘플 유사도에 관한 사전 결정된 유사도 범위가 [0, 1]이고 다이내믹 모델이 산출한 샘플 유사도가 0 또는 0에 가까운 값인 경우, 프로세서(110)는 제 1 가중치를 제 2 가중치로 나눈 비율 값이 '0'과 같은 작은 수가 되도록 제 1 가중치 및 제 2 가중치를 결정할 수 있다.
도 6을 참조하여 전술된 내용들 중 각 시점에서 최종 제어 정보를 산출하는 동작은 최적 제어 정보 산출에 관한 제 4 실시예에서도 마찬가지로 설명될 수 있다. 다시 도 6을 참조하면, 프로세서(110)는 제 1 시점에 있어서, 제 1-1(611) 제어 변수와 제 2-1 제어 변수(613)를 가중합하여 제 1 최종 제어 변수(615)를 산출하되, 가중합을 위한 가중치를, 강화학습 제어 모델의 확신도가 아닌, 다이내믹 모델이 산출하는 예측 상태 정보에 기반하여 계산된 샘플 유사도에 기초하여 설정할 수 있다. 프로세서(110)는 서로 다른 복수 개의 각 시점에 있어서 제 1 제어 변수와 제 2 제어 변수를 가중합하여 최종 제어 변수를 결정할 때에도 각각의 제어 변수에 대응되는 가중치를 샘플 유사도에 기초하여 결정할 수 있다.
본 개시의 최종 제어 정보 산출을 위한 제 4 실시예에 따라 프로세서(110)가 다이내믹 모델이 산출하는 예측 상태 정보에 기초하여 샘플 유사도를 도출하고 도출된 샘플 유사도를 가중합 연산에 반영할 경우, 프로세서(110)는 학습 대상이 된 강화학습 제어 모델이 스스로 산출하는 확신도 외에 지도 학습된 별도의 모델을 이용하여 가중치를 결정할 수 있게 된다. 본 개시에 따른 샘플 유사도는, 새롭게 입력된 데이터와 기 학습된 학습 데이터 간 유사 정도가 함축적으로 반영되는 지표(e.g. 강화학습 모델의 확신도)가 아니라, 직접적으로 기 학습된 학습 데이터와의 유사 정도를 계산하는 지표라는 점에서, 보다 보수적으로 피드백 제어 알고리즘에 따른 제어 정보와 강화학습에 따른 제어 정보 사이의 반영 비율을 결정할 수 있는 장점이 있다. 또한 본 개시에 따른 다이내믹 모델을 이용할 경우 실제 환경 또는 가상 환경을 모사하는 모델을 생성할 수 있게 되므로, 다이내믹 모델을 이용하여 강화학습 제어 모델을 off-line으로 학습시킬 수 있는 장점을 갖는다.
본 개시의 일 실시예에 있어서 프로세서(110)는 차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득된 둘 이상의 상태 정보에 기초하여 강화학습 제어 모델을 지속 학습시킬 수 있다. 프로세서(110)는 실제 차량을 운행하는 과정에서 기 학습된 강화학습 제어 모델에 기초하여 최적 제어 정보를 산출하고 차량 내 에너지 시스템을 구동할 수 있다. 기 학습된 강화학습 제어 모델에 기초한 차량의 실제 구동 결과 획득되는 복수 개의 상태 정보는 신규 학습 데이터로 취급될 수 있다. 프로세서(110)는 실제 차량의 운행 과정에서 획득된 둘 이상의 상태 정보에 기초하여 강화학습 제어 모델을 지속 학습시킬 수 있다. 일례로, 프로세서(110)는 강화학습 제어 모델을 전이학습(transfer learning)시키는 방법으로, 강화학습 제어 모델을 지속 학습시킬 수 있다. 프로세서(110)는 현재 상태의 강화학습 제어 모델에 포함된 뉴럴 네트워크의 파라미터를 초기 파라미터 값으로 설정한 후, 차량의 운행 과정에서 획득된 둘 이상의 상태 정보를 학습 데이터로 사용하여 강화학습 제어 모델을 학습시킬 수 있다. 다른 일례로, 프로세서(110)는 강화학습 제어 모델을 재학습시키는 방법으로 강화학습 제어 모델을 지속 학습시킬 수 있다. 프로세서(110)는 강화학습 제어 모델에 포함된 뉴럴 네트워크의 파라미터를 임의의 초기 파라미터 값으로 설정한 후, 차량의 운행 과정에서 획득된 둘 이상의 상태 정보를 학습 데이터로 사용하여 강화학습 제어 모델을 학습시킬 수도 있다. 상술한 바와 같이, 차량의 운행 과정에서 획득된 상태 정보에 기초하여 강화학습 제어 모델을 지속 학습시킬 경우, 시뮬레이션 모델로 구현되지 않는 실제 물리 환경의 특징을 학습하여 실제 차량 운행시 보다 높은 효율을 달성할 수 있다는 장점을 갖는다.
본 개시에 따른 다이내믹 모델은 차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득된 둘 이상의 상태 정보에 기초하여 지속적으로 학습될 수 있다. 프로세서(110)는 실제 차량 구동 과정에서 획득된 상태 정보들을 이용하여, 다이내믹 모델이 보다 정확하게 다음 상태 정보를 예측하는 '예측 상태 정보'를 산출하도록, 다이내믹 모델을 지속 학습시킬 수 있다. 지속 학습의 구체적인 방법은 상술한 강화학습 제어 모델의 지속 학습 방법과 동일 또는 유사할 수 있다.
본 개시에 따른 프로세서(110)는 지속 학습된 다이내믹 모델을 이용하여 강화학습 제어 모델을 지속 학습시킬 수 있다. 본 개시의 실시예에 따라 지속 학습된 다이내믹 모델을 이용하여 강화학습 제어 모델을 지속 학습시키는 것은 다음과 같은 장점을 갖는다. 도 3을 참조하여 설명된 바와 같이, 에이전트를 강화학습 시키기 위해서는 행동에 반응하기 위한 환경 모델이 필수적으로 요구된다. 이 때, 환경 모델의 '입력으로부터 출력에 이르는 내부 연산 과정'을 알 수 있는 경우 "모델 기반(Model-based) 강화학습"으로 호칭될 수 있으며, 환경 모델의 '입력으로부터 출력에 이르는 내부 연산 과정'을 알 수 없는 경우 "모델 프리(Model-free) 강화학습"으로 호칭될 수 있다. 한 편, 실제 물리 세계는 쉽게 모델링될 수 없으며 일반적으로 계(system)의 복잡도가 높아질수록 모델 프리 강화학습의 형태로 진행되게 된다. 이 때, 모델 프리 강화학습의 경우, 학습 데이터(e.g.에피소드 데이터)를 얻기 위해 무수히 많은 반복 시행이 요구될 수 있다. 또한, 모델 프리 강화학습에 사용되는 환경 모델이 입력에 즉각적으로 반응하지 않을 경우 학습 데이터를 얻는 것은 필연적으로 요구 시간에 의해 제한될 수 있다. 반면 본 개시에 따라, 모델 프리 강화학습에 사용되는 환경 모델(i.e. 시뮬레이션 모델)의 동작을 모사하기 위한 별도의 모델(i.e. 다이내믹 모델)을 생성할 경우, 프로세서(110)는 학습 데이터 생성 시간의 제약을 받지 않고 강화학습을 진행할 수 있는 장점을 갖는다. 또한 강화학습의 대상이 되는 에이전트가 차량을 위한 에너지 시스템일 경우, 다이내믹 모델을 이용하게 되면 실제 차량을 구동하지 않고 에이전트를 학습할 수 있어 자원을 절약할 수 있는 효과 또한 갖는다. 본 개시에 따른 프로세서(110)는, 도 3을 참조하여 전술된 강화학습 제어 모델의 학습 과정에서, 학습을 위해 사용된 '시뮬레이션 모델'을 지속 학습된 '다이내믹 모델'로 치환함으로써 강화학습 제어 모델을 학습시킬 수 있다.
도 7은 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델 및 피드백 제어 알고리즘에 기초하여 최적 제어 정보를 산출하는 과정을 나타내는 흐름도이다. 본 개시에 따른 프로세서(110)는 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득(S510)할 수 있다. 상태 정보는 에너지 제어 시스템에 관한 적어도 하나의 상태 변수를 포함할 수 있다. 적어도 하나의 상태 변수는 예를 들어, 온도 데이터, 과냉도 데이터, 압축기 출력 데이터, 밸브 개폐 데이터, 히터 출력 데이터 등을 포함할 수 있다. 강화학습 제어 모델이 학습 과정에 있을 경우, 프로세서(110)는 시뮬레이션 모델로부터 상태 정보를 획득할 수 있다. 강화학습 제어 모델이 실제 운영 과정(즉, 추론 과정)에 있을 경우, 프로세서(110)는 외부 환경 또는 외부 서버로부터 상태 정보를 획득할 수 있다. 프로세서(110)는 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출(S530)할 수 있다. 강화학습 제어 모델은 뉴럴 네트워크 구조를 포함하되, 상태 정보를 입력하여 제어 정보를 출력하도록 학습될 수 있다. 제어 정보는 예를 들어, 압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터 중 적어도 하나의 제어 데이터를 포함할 수 있다. 프로세서(110)는 피드백 제어 알고리즘에 기초하여 상태 정보로부터 제 2 제어 정보를 산출(S550)할 수 있다. 피드백 제어 알고리즘은 PID 제어 알고리즘을 포함할 수 있다. 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보에 기초하여 최적 제어 정보를 산출할 수 있다. 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보 중 하나의 제어 정보를 선택함으로써 최적 제어 정보를 산출할 수 있다. 프로세서(110)는 제 1 제어 정보 및 제 2 제어 정보를 가중합하는 연산에 기초하여 최적 제어 정보를 산출할 수 있다. 프로세서(110)는 강화학습 제어 모델이 산출하는 확신도에 기초하여 제 1 제어 정보 및 제 2 제어 정보를 가중합함으로써 최적 제어 정보를 산출할 수 있다.
도 8은 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델을 학습시키는 과정을 나타내는 흐름도이다. 프로세서(110)는 시뮬레이션 모델로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보()를 획득(S610)할 수 있다. 시뮬레이션 모델은 강화학습 제어 모델이 행동을 결정하기 위한 정보인 "현재 상태 정보"를 산출하는 모델일 수 있다. 프로세서(110)는 강화학습 제어 모델에 현재 상태 정보를 입력(S630)할 수 있다. 상기 입력의 결과로 프로세서(110)는 강화학습 제어 모델의 출력에 기초하여 제 1 제어 정보를 산출(S650)할 수 있다. 강화학습 제어 모델은 시뮬레이션 모델로부터 획득된 시점 t에 관한 현재 상태 정보()에 기초하여 선택 가능한 복수의 행동들에 관한 확률 분포를 연산할 수 있다. 프로세서(110)는 상기 연산된 확률 분포에 기초하여 제 1 제어 정보()를 산출할 수 있다. 프로세서(110)는 산출된 제 1 제어 정보를 시뮬레이션 모델에 입력(S670)할 수 있다. 프로세서(110)는 제 1 제어 정보의 입력 결과로써 시뮬레이션 모델로부터 갱신된 다음 상태 정보()와 보상()을 획득(S690)할 수 있다. 본 개시에 있어서 시뮬레이션 모델은 내부 연산 과정이 공개되지 않은 외부 모델일 수 있다. 구체적으로, 시뮬레이션 모델의 내부 연산 과정에 대한 코드(code)는 캡슐화(encapsulation)되어 공개되지 않을 수 있다. 프로세서(110)는 전술한 S610 단계 내지 S690 단계들을 반복 수행하여 강화학습 제어 모델을 학습시키기 위한 에피소드 데이터를 생성할 수 있다.
도 9는 본 개시의 일 실시예에 따라 프로세서가 강화학습 제어 모델 및 피드백 제어 알고리즘에 기초하되 다이내믹 모델에 추가적으로 기초하여 최적 제어 정보를 산출하는 과정을 나타내는 흐름도이다. 프로세서(110)는 적어도 하나의 상태 변수를 포함하는 상태 정보를 획득(S710)할 수 있다. 프로세서(110)는 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출(S730)할 수 있다. 프로세서(110)는 피드백 제어 알고리즘에 기초하여 상태 정보로부터 제 2 제어 정보를 산출(S750)할 수 있다. S710 내지 S750의 단계들은 프로세서(110)에 의해 도 7을 참조하여 전술한 S510 내지 S530의 단계들과 유사하게 수행될 수 있다. 프로세서(110)는 학습된 다이내믹 모델을 이용하여 상태 정보의 샘플 유사도를 결정(S770)할 수 있다. 다이내믹 모델은 현재 상태 정보를 입력받아 다음 상태 정보에 관한 예측값을 도출하는 모델일 수 있다. 다이내믹 모델은 의사결정 트리 또는 뉴럴 네트워크의 데이터 구조로 이루어질 수 있다. 프로세서(110)는 다이내믹 모델에 시점 t-1의 상태 정보 및 시점 t-1의 상태 정보에 대한 강화학습 제어 모델의 제어 정보를 입력하여, 시점 t의 상태 정보에 관한 예측 상태 정보를 획득할 수 있다. 프로세서(110)는 환경 모델로부터 획득되는 시점 t의 상태 정보와 다이내믹 모델로부터 획득되는 시점 t의 상태 정보에 관한 예측 상태 정보 사이에서 샘플 유사도를 결정할 수 있다. 샘플 유사도는 시점 t의 상태 정보와 시점 t의 상태 정보에 관한 예측 상태 정보 사이의 유사도를 반영한 지표일 수 있다. 프로세서(110)는 제 1 제어 정보, 제 2 제어 정보 및 상기 결정된 샘플 유사도에 기초하여 최적 제어 정보를 산출(S790)할 수 있다. 프로세서(110)는 샘플 유사도가 클수록 제 1 제어 정보에 높은 가중치를 부여하여 최적 제어 정보를 산출할 수 있다. 예를 들어, 제 1 제어 정보와 제 2 제어 정보 각각에 대응되는 제 1 가중치 및 제 2 가중치는 합이 1일 수 있다. 프로세서(110)는 산출된 샘플 유사도를 고려하여 제 1 가중치와 제 2 가중치의 값을 0 에서 1 사이 값으로 각각 설정할 수 있다. 일례로, 다이내믹 모델의 출력에 기초하여 산출된 샘플 유사도가 최대값에 가까울 경우, 프로세서(110)는 제 1 가중치를 '1'로 제 2 가중치를 '0'으로 설정할 수 있다. 다른 일례로, 산출된 샘플 유사도가 최소값에 가까울 경우, 프로세서(110)는 제 1 가중치를 '0'으로 제 2 가중치를 '1'로 설정할 수 있다.
도 10은 본 개시의 일 실시예에 따라 프로세서가 다이내믹 모델을 학습시키는 과정을 나타내는 흐름도이다. 프로세서(110)는 시뮬레이션 모델로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보()를 획득(S810)할 수 있다. 시뮬레이션 모델은 입력과 출력의 상관관계를 알 수 없는 관계로 블랙박스로 취급될 수 있다. 프로세서(110)는 시뮬레이션 모델로부터 획득된 현재 상태 정보()를 강화학습 제어 모델에 입력하고, 강화학습 제어 모델로부터 제어 정보()를 획득(S820)할 수 있다. 프로세서(110)는 다이내믹 모델에 현재 상태 정보() 및 제어 정보()를 입력(S830)할 수 있다. 프로세서(110)는 다이내믹 모델로부터 예측 상태 정보()를 획득(S840)할 수 있다. 예측 상태 정보()는 프로세서(110)가 시뮬레이션 모델에 현재 상태 정보()에 대한 반응으로 제어 정보()를 입력하였을 때 상기 시뮬레이션 모델로부터 획득될 다음 상태 정보에 관한 예측값일 수 있다. 프로세서(110)는 시뮬레이션 모델에 현재 상태 정보()에 대한 반응으로 제어 정보()를 입력하여 다음 상태 정보()를 획득(S850)할 수 있다. 프로세서(110)는 예측 상태 정보()와 다음 상태 정보()를 비교(S860)하여 오차를 역전파하는 방식으로 다이내믹 모델을 학습시킬 수 있다. 다이내믹 모델의 학습이 진행될수록 예측 상태 정보()와 다음 상태 정보()의 오차는 감소할 수 있다.
도 11은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다. 본 개시가 일반적으로 컴퓨팅 장치에 의해 구현될 수 있는 것으로 전술되었지만, 당업자라면 본 개시가 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어 및/또는 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로써 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터 등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a, b, g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 소프트웨어로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 제조 물품은 임의의 컴퓨터-판독가능 저장장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (13)

  1. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 최적 제어 수행 방법으로서,
    적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하는 단계;
    상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하는 단계;
    피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하는 단계; 및
    상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하는 단계;
    를 포함하고, 그리고
    상기 제 1 제어 정보는 사전 결정된 시간 구간의 시점들 각각에 대응하는 제 1 제어 변수를 하나 이상 포함하고,
    상기 제 2 제어 정보는 상기 시점들 각각에 대응하는 제 2 제어 변수를 하나 이상 포함하고 - 여기서 하나의 시점에 대해 상기 제 1 제어 변수 및 상기 제 2 제어 변수가 대응됨 -,
    상기 최적 제어 정보는 최종 제어 변수를 하나 이상 포함하고,
    상기 최적 제어 정보를 산출하는 단계는,
    상기 시점들 각각에 대해서, 상기 강화학습 제어 모델에서 산출되는 확신도(confidence score)에 기초하여, 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 기초하는 값을 상기 최종 제어 변수로 산출하는 단계;
    를 포함하되,
    상기 최종 제어 변수는 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 대한 가중합(weighted sum) 연산에 기초하여 산출되고,
    상기 확신도는 상기 상태 정보와 상기 강화학습 제어 모델이 지속적으로 학습한 학습 데이터 간 유사 정도가 반영된 지표이고,
    상기 가중합 연산을 위한 가중치는,
    상기 강화학습 제어 모델이 산출하는 확신도에 따라 결정되는,
    최적 제어 수행 방법.
  2. 제 1 항에 있어서,
    상기 상태 정보는,
    차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득되는,
    최적 제어 수행 방법.
  3. 제 1 항에 있어서,
    상기 상태 정보는,
    온도 데이터, 과냉도 데이터, 압축기 출력 데이터, 밸브 개폐 데이터, 및 히터 출력 데이터 각각에 관한 상태 변수들 중 적어도 하나의 상태 변수를 포함하는,
    최적 제어 수행 방법.
  4. 제 1 항에 있어서,
    상기 강화학습 제어 모델은,
    시뮬레이션 모델로부터 적어도 하나의 상태 변수를 포함하는 현재 상태 정보를 획득하는 단계;
    상기 강화학습 제어 모델에 상기 현재 상태 정보를 입력하는 단계;
    상기 강화학습 제어 모델에 기초하여 제 1 제어 정보를 산출하는 단계;
    상기 시뮬레이션 모델에 산출된 상기 제 1 제어 정보를 입력하는 단계; 및
    상기 시뮬레이션 모델로부터 다음 상태 정보 및 보상 정보를 획득하는 단계;
    를 포함하는 학습 방법에 기초하여 학습되는,
    최적 제어 수행 방법.
  5. 제 1 항에 있어서,
    상기 피드백 제어 알고리즘은
    비례(P) 제어 알고리즘, 비례-적분(PI) 제어 알고리즘 또는 비례-적분-미분(PID) 제어 알고리즘 중 적어도 하나를 포함하는,
    최적 제어 수행 방법.
  6. 제 1 항에 있어서,
    상기 제 1 제어 정보 또는 상기 제 2 제어 정보는,
    압축기 출력 제어 데이터, 밸브 개폐 제어 데이터, 히터 출력 제어 데이터 중 적어도 하나의 제어 데이터를 포함하는,
    최적 제어 수행 방법.
  7. 삭제
  8. 삭제
  9. 제 1 항에 있어서,
    상기 가중합 연산을 위한 가중치는,
    상기 제 1 제어 정보에 대응되고 사전 결정된 제 1 가중치; 및
    상기 제 2 제어 정보에 대응되고 사전 결정된 제 2 가중치;
    를 포함하는,
    최적 제어 수행 방법.
  10. 제 1 항에 있어서,
    상기 가중합 연산을 위한 가중치는,
    상기 제 1 제어 정보에 대응되는 제 1 가중치를 상기 제 2 제어 정보에 대응되는 제 2 가중치로 나눈 비율에 있어서, 상기 강화학습 제어 모델이 산출하는 확신도가 높을수록 상기 비율이 큰 값을 갖도록 설정되는,
    최적 제어 수행 방법.
  11. 제 1 항에 있어서,
    상기 강화학습 제어 모델은,
    차량의 운행 과정에서 사전 결정된 시간 구간에 따라 획득된 둘 이상의 상태 정보에 기초하여 지속 학습되는,
    최적 제어 수행 방법.
  12. 컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 최적 제어를 수행하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은:
    적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하는 동작;
    상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하는 동작;
    피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하는 동작; 및
    상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하는 동작;
    을 포함하고, 그리고
    상기 제 1 제어 정보는 사전 결정된 시간 구간의 시점들 각각에 대응하는 제 1 제어 변수를 하나 이상 포함하고,
    상기 제 2 제어 정보는 상기 시점들 각각에 대응하는 제 2 제어 변수를 하나 이상 포함하고 - 여기서 하나의 시점에 대해 상기 제 1 제어 변수 및 상기 제 2 제어 변수가 대응됨 -,
    상기 최적 제어 정보는 최종 제어 변수를 하나 이상 포함하고,
    상기 최적 제어 정보를 산출하는 동작은,
    상기 시점들 각각에 대해서, 상기 강화학습 제어 모델에서 산출되는 확신도(confidence score)에 기초하여, 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 기초하는 값을 상기 최종 제어 변수로 산출하는 동작;
    을 포함하되,
    상기 확신도는 상기 상태 정보와 상기 강화학습 제어 모델이 지속적으로 학습한 학습 데이터 간 유사 정도가 반영된 지표이고,
    상기 최종 제어 변수는 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 대한 가중합(weighted sum) 연산에 기초하여 산출되고,
    상기 가중합 연산을 위한 가중치는,
    상기 강화학습 제어 모델이 산출하는 확신도에 따라 결정되는,
    컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램.
  13. 최적 제어를 수행하기 위한 장치로서,
    하나 이상의 프로세서;
    메모리; 및
    네트워크부;
    를 포함하며, 그리고
    상기 하나 이상의 프로세서는,
    적어도 하나의 상태 변수를 포함하는 상태 정보를 획득하고,
    상기 상태 정보를 강화학습 제어 모델에 입력하여 제 1 제어 정보를 산출하고,
    피드백 제어 알고리즘에 기초하여 상기 상태 정보로부터 제 2 제어 정보를 산출하고,
    상기 제 1 제어 정보 및 상기 제 2 제어 정보에 기초하여 최적 제어 정보를 산출하고, 그리고
    상기 제 1 제어 정보는 사전 결정된 시간 구간의 시점들 각각에 대응하는 제 1 제어 변수를 하나 이상 포함하고,
    상기 제 2 제어 정보는 상기 시점들 각각에 대응하는 제 2 제어 변수를 하나 이상 포함하고 - 여기서 하나의 시점에 대해 상기 제 1 제어 변수 및 상기 제 2 제어 변수가 대응됨 -,
    상기 최적 제어 정보는 최종 제어 변수를 하나 이상 포함하고,
    상기 최적 제어 정보를 산출하는 것은,
    상기 프로세서에서, 상기 시점들 각각에 대해서, 상기 강화학습 제어 모델에서 산출되는 확신도(confidence score)에 기초하여, 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 기초하는 값을 상기 최종 제어 변수로 산출하는 것을 포함하되,
    상기 확신도는 상기 상태 정보와 상기 강화학습 제어 모델이 지속적으로 학습한 학습 데이터 간 유사 정도가 반영된 지표이고,
    상기 최종 제어 변수는 상기 제 1 제어 변수 및 상기 제 2 제어 변수에 대한 가중합(weighted sum) 연산에 기초하여 산출되고,
    상기 가중합 연산을 위한 가중치는,
    상기 강화학습 제어 모델이 산출하는 확신도에 따라 결정되는,
    최적 제어를 수행하기 위한 장치.
KR1020220051274A 2021-06-17 2022-04-26 최적 제어 수행 방법 및 장치 KR102671874B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220051274A KR102671874B1 (ko) 2021-06-17 2022-04-26 최적 제어 수행 방법 및 장치
US18/020,682 US20240241486A1 (en) 2021-06-17 2022-06-10 Method and apparatus for performing optimal control
PCT/KR2022/008195 WO2022265305A1 (ko) 2021-06-17 2022-06-10 최적 제어 수행 방법 및 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210078419 2021-06-17
KR1020220051274A KR102671874B1 (ko) 2021-06-17 2022-04-26 최적 제어 수행 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210078419 Division 2021-06-17 2021-06-17

Publications (2)

Publication Number Publication Date
KR20220168970A KR20220168970A (ko) 2022-12-26
KR102671874B1 true KR102671874B1 (ko) 2024-06-03

Family

ID=84527683

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051274A KR102671874B1 (ko) 2021-06-17 2022-04-26 최적 제어 수행 방법 및 장치

Country Status (3)

Country Link
US (1) US20240241486A1 (ko)
KR (1) KR102671874B1 (ko)
WO (1) WO2022265305A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050075993A1 (en) * 2003-10-06 2005-04-07 National Tsing Hua University Process controlling method with merged two-control loops
US20190041811A1 (en) * 2017-08-03 2019-02-07 Johnson Controls Technology Company Building management system with augmented deep learning using combined regression and artificial neural network modeling
US20200249637A1 (en) * 2017-09-22 2020-08-06 Nec Corporation Ensemble control system, ensemble control method, and ensemble control program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915073B2 (en) * 2017-12-15 2021-02-09 Exxonmobil Research And Engineering Company Adaptive PID controller tuning via deep reinforcement learning
US11879656B2 (en) * 2018-04-04 2024-01-23 International Business Machines Corporation Initialization of radial base function neural network nodes for reinforcement learning incremental control system
US11379708B2 (en) * 2018-08-09 2022-07-05 Nvidia Corporation Techniques for efficiently operating a processing system based on energy characteristics of instructions and machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050075993A1 (en) * 2003-10-06 2005-04-07 National Tsing Hua University Process controlling method with merged two-control loops
US20190041811A1 (en) * 2017-08-03 2019-02-07 Johnson Controls Technology Company Building management system with augmented deep learning using combined regression and artificial neural network modeling
US20200249637A1 (en) * 2017-09-22 2020-08-06 Nec Corporation Ensemble control system, ensemble control method, and ensemble control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
P.E. An 외 3인, A reinforcement learning approach to on-line optimal control(1994) 1부.*

Also Published As

Publication number Publication date
WO2022265305A1 (ko) 2022-12-22
US20240241486A1 (en) 2024-07-18
KR20220168970A (ko) 2022-12-26

Similar Documents

Publication Publication Date Title
Wen et al. Convolutional neural network with automatic learning rate scheduler for fault classification
KR102295805B1 (ko) 학습 데이터 관리 방법
US11645728B2 (en) Method and apparatus for control energy management system based on reinforcement learning
US11816554B2 (en) Method and apparatus for generating weather data based on machine learning
US20240095535A1 (en) Executing a genetic algorithm on a low-power controller
KR102234270B1 (ko) 강화학습 기반 에너지 관리 시스템 제어 방법 및 장치
KR102093080B1 (ko) 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법
CN116643499A (zh) 一种基于模型强化学习的智能体路径规划方法及系统
KR102461569B1 (ko) 다이내믹 모델 기반 최적 제어 수행 방법 및 장치
US20240160951A1 (en) Control Simulation Method Based On Artificial Intelligence
KR102671874B1 (ko) 최적 제어 수행 방법 및 장치
EP4339840A1 (en) Method and device with training database construction
KR102364881B1 (ko) 전문가 모사 모델 학습 방법 및 그 학습을 위한 장치
KR102531646B1 (ko) 지연된 보상에 기초하여 공조 장치를 제어하기 위한 방법
KR20210050413A (ko) 비정상 데이터 생성 방법
Zhang et al. Universal value iteration networks: When spatially-invariant is not universal
US20230169336A1 (en) Device and method with state transition linearization
KR20220168971A (ko) 다이내믹 모델 기반 최적 제어 수행 방법 및 장치
Landa-Becerra et al. Knowledge incorporation in multi-objective evolutionary algorithms
US11797859B2 (en) Environment factor control device and training method thereof
US20230237765A1 (en) Anchor-Free RPN-Based Object Detection Method
CN114004332A (zh) 环境自适应的图表征方法、装置、电子设备及介质
KR20240070376A (ko) 지연된 보상에 기초하여 공조 장치를 제어하기 위한 방법
Yu et al. Deep Q‐Network with Predictive State Models in Partially Observable Domains
KR102629022B1 (ko) 강화 학습 기반의 스케줄링 방법

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant