KR102267180B1 - 공조시스템 및 그 제어 방법 - Google Patents

공조시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR102267180B1
KR102267180B1 KR1020190102785A KR20190102785A KR102267180B1 KR 102267180 B1 KR102267180 B1 KR 102267180B1 KR 1020190102785 A KR1020190102785 A KR 1020190102785A KR 20190102785 A KR20190102785 A KR 20190102785A KR 102267180 B1 KR102267180 B1 KR 102267180B1
Authority
KR
South Korea
Prior art keywords
control
learning model
learning
value
output value
Prior art date
Application number
KR1020190102785A
Other languages
English (en)
Other versions
KR20190104926A (ko
Inventor
고한규
이동규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190102785A priority Critical patent/KR102267180B1/ko
Priority to US16/556,153 priority patent/US20200041160A1/en
Publication of KR20190104926A publication Critical patent/KR20190104926A/ko
Application granted granted Critical
Publication of KR102267180B1 publication Critical patent/KR102267180B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • F24F11/64Electronic processing using pre-stored data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/10Temperature

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Combustion & Propulsion (AREA)
  • Fuzzy Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Air Conditioning Control Device (AREA)

Abstract

공조시스템의 제어 방법은 제1 온도 관련 데이터에 기초하여 업데이트되는 제1 하이퍼파라미터에 따른 제1 예측 온도값을 획득하도록 제1 학습 모델을 학습하고, 획득된 제1 예측 온도값에 기초하여 제1 제어값을 획득하도록 제2 학습 모델을 학습하며, 획득된 제1 제어값에 따라 공조장치를 동작하도록 제어한다.

Description

공조시스템 및 그 제어 방법{Air conditioning system and controlling method thereof}
실시예는 공조시스템 및 그 제어 방법에 관한 것이다.
인공 지능(artificial intelligence)은 인간의 지능으로 할 수 있는 사고, 학습, 자기계발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 한 분야로, 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 의미한다.
또한, 인공지능은 그 자체로 존재하는 것이 아니라, 컴퓨터 과학의 다른 분야와 직간접으로 많은 관련을 맺고 있다. 특히 현대에는 정보기술의 여러 분야에서 인공지능적 요소를 도입하여, 그 분야의 문제 풀이에 활용하려는 시도가 매우 활발하게 이루어지고 있다.
공조 시스템은 대형 빌딩, 대형 선박, 대형 공장 또는 스마트 시티에 설치된다. 공조 시스템은 사용자에게 쾌적환 환경을 제공하고 효율적인 에너지 소비가 가능해야 한다.
이를 위해서는, 공조 시스템을 최적으로 제어하는 것이 매우 중요하다. 종래에는 작업자의 경험이나 직관에 의존하여 공조 시스템을 제어함으로써, 최적 제어가 사실상 불가능하였다.
최근에 온도와 같은 변수에 기반하여 공조 시스템을 제어하는 기술이 제안되고 있지만, 여전히 최적 제어는 구현하기 어렵다.
실시예는 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
실시예의 다른 목적은 인공 지능을 이용하여 최적의 제어가 가능한 공조시스템 및 그 제어 방법을 제공한다.
상기 또는 다른 목적을 달성하기 위해 실시예의 일 측면에 따르면, 공조시스템의 제어 방법은, 제1 온도 관련 데이터에 기초하여 업데이트되는 제1 하이퍼파라미터에 따른 제1 예측 온도값을 획득하도록 제1 학습 모델을 학습하는 단계; 상기 획득된 제1 예측 온도값에 기초하여 제1 제어값을 획득하도록 제2 학습 모델을 학습하는 단계; 및 상기 획득된 제1 제어값에 따라 공조장치를 동작하도록 제어하는 단계를 포함한다.
실시예의 다른 측면에 따르면, 공조시스템은, 공조장치; 제1 학습 모델 및 제2 학습 모델을 저장하는 메모리; 및 프로세서를 포함한다. 상기 프로세서는, 제1 온도 관련 데이터에 기초하여 업데이트되는 제1 하이퍼파라미터에 따른 제1 예측 온도값을 획득하도록 상기 제1 학습 모델을 학습하고, 상기 획득된 제1 예측 온도값에 기초하여 제1 제어값을 획득하도록 상기 제2 학습 모델을 학습하며, 상기 획득된 제1 제어값에 따라 상기 공조장치를 동작하도록 제어한다.
실시예에 따른 공조시스템 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
실시예들 중 적어도 하나에 의하면, 에너지 밸런스 학습 모델에 매우 적은 수의 하이퍼파라미터의 업데이트에 의해 최적의 예측 온도값을 획득할 수 있으므로, 컴퓨팅 파워와 학습 시간을 현저하게 줄일 수 있다는 장점이 있다.
실시예들 중 적어도 하나에 의하면, 밸런스 학습 모델에서 적은 수의 하이퍼파라미터가 사용됨으로써, 비교적 적은 양의 온도 관련 데이터, 예컨대 1시간, 10시간 또는 1일 동안 수집된 온도 관련 데이터를 이용하더라도 충분히 정확도가 높은 예측 온도값을 획득할 수 있어, 컴퓨팅 파워와 학습 시간을 현저하게 줄일 수 있다. 컴퓨팅 파워가 줄 수 있기 때문에, raspberry pi와 같은 소형 컴퓨터에서도 구현이 가능하다는 장점이 있다.
실시예들 중 적어도 하나에 의하면, 에너지 밸런스 학습 모델에 의해 획득된 최적의 예측 온도값에 기초하여 보다 정확하고 보다 신속하게 획득된 제어값에 따라 공조장치가 동작하여 항상 목표 온도로 일정하게 유지되도록 함으로써, 사용자에게 쾌적환 환경을 제공하고 효율적인 에너지 소비가 가능하다는 장점이 있다.
실시예의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 실시예의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 3는 본 발명의 실시예 따른 공조시스템을 도시한 블록도이다.
도 4는 본 발명의 실시예에 따른 공조시스템의 제어 방법을 설명하는 순서도이다.
도 5은 본 발명의 실시예에 따른 공조시스템의 제어 방법을 설명하는 순서도이다.
도 6은 본 발명의 실시예에 따른 공조시스템의 에너지 밸런스 학습 모델을 도시한 블록도이다.
도 7은 본 발명의 실시예에 따른 공조시스템의 에너지 밸런스 학습 모델의 동작 방법을 설명하는 순서도이다.
도 8는 에너지 밸런스 학습 모델을 적용하기 전과 후의 시뮬레이션 결과를 보여준다.
도 9은 본 발명의 실시예에 따른 공조시스템의 제어 학습 모델의 동작 방법을 설명하는 순서도이다.
도 10은 본 발명의 실시예에 따른, 베이스 라인을 설정하는 방법을 설명하기 위한 도면이다.
도 11는 본 발명의 실시예에 따른, 제2 라인 및 인공지능부가 베이스 라인을 추종하는 것을 목표로 강화학습을 수행하는 방법을 설명하기 위한 도면이다.
도 12은 본 발명의 실시예에 따른, 갭의 위치에 따라 상이한 보상을 부여하는 방법을 설명하기 위한 도면이다.
도 13는 본 발명의 실시예에 따른, 베이스 라인과 출력값의 비교 범위를 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른, 추가적인 베이스 라인을 설정하고, 추가적인 베이스 라인을 회피하는 것을 목표로 강화학습을 수행하는 방법을 설명하기 위한 도면이다.
도 15은 본 발명의 실시예에 따른, 출력값과 제2 베이스 라인 상의 일 지점이 일치하는 경우, 파라미터를 폐기하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 실시예에 따른, 환경 조건의 변화에 따라 베이스 라인을 재 설정하는 방법을 설명하기 위한 도면이다.
도 17는 본 발명의 실시예에 따른, 인공지능 장치가 제어 센터에 통합적으로 구성되는 실시예를 설명하기 위한 블록도이다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치(100)는 공조 시스템으로 구현될 수 있다.
도 1을 참조하면, AI 장치(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 실시예 따른 공조시스템을 도시한 블록도이다.
도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 공조시스템(300)은 도 1 및 도 2 에 도시된 인공지능 장치(100)과 혼용될 수 있다.
본 발명의 실시예에 따른 공조시스템(300)은 에너지 밸런스 학습 모델(310) 및 제어 학습 모델(320)을 포함할 수 있다. 본 발명의 실시예에 따른 공조시스템(300)은 공조장치(330)를 포함할 수 있다. 본 발명의 실시예에 따른 공조시스템(300)은 수집부(340)를 포함할 수 있다. 본 발명의 실시예에 따른 공조시스템(300)은 이보다 더 적은 구성 요소를 포함하거나 더 많은 구성 요소를 포함할 수 있다.
에너지 밸런스 학습 모델(310)은 제1 학습 모델로 지칭되고, 제어 학습 모델(320)은 제2 학습 모델로 지칭될 수 있다. 이와 반대로 지칭될 수도 있다.
에너지 밸런스 학습 모델(310)과 제어 학습 모델(320)은 도 1에 도시된 메모리(170)에 저장될 수 있다. 프로세서(180)는 예측 온도값(T, T')을 획득하기 위해 에너지 밸런스 학습 모델(310)을 학습할 수 있다. 프로세서(180)는 제어값(Q, Q')을 획득하기 위해 제어 학습 모델(320)을 학습할 수 있다. 프로세서(180)는 공조장치(330)의 온도 관련 데이터를 수집하도록 수집부(340)를 제어할 수 있다. 수집부(340)는 온도 관련 데이터를 획득할 수 있는 온도 센서를 포함할 수 있다. 수집부(340)는 도 1에 도시된 입력부(120)에 포함될 수 있다. 수집부(340)는 프로세서(180)와 통신하기 위한 통신 모듈(미도시)을 포함할 수 있다.
에너지 밸런스 학습 모델(310)은 온도 관련 데이터(D, D')에 기초하여 하이퍼파라미터(hyperparameter)를 업데이트하고, 업데이트된 하이퍼파라미터에 따른 예측 온도값(T, T')을 획득하도록 학습할 수 있다. 온도 관련 데이터(D, D’)는 온도나 개도율일 수 있다. 개도율은 밸브가 개방되는 정도를 나타낼 수 있다. 개도율은 퍼센티지(percentage) 단위를 가질 수 있지만, 이에 대해서는 한정하지 않는다. 개도율에 따라 공조장치(330)의 온도가 달라질 수 있다. 예컨대, 개도율이 커질수록 공조장치(330)의 온도는 낮아질 수 있지만, 이에 대해서는 한정하지 않는다. 본 발명의 실시예에서는 에너지 밸런스 학습 모델(310)은 온도 및 개도율 중 적어도 하나를 입력받을 수 있다.
본 발명은 에너지 밸런스에 기반하여 공조 시스템을 제어하며, 이때 에너지 밸런스는 수학식 1로 나타낼 수 있다.
[수학식 1]
Figure 112019086174189-pat00001
m은 유량, 즉 공조장치(330)의 풍량을 나타내고, Cp는 공기의 비열을 나타낼 수 있다. U는 열 전도도를 나타내고, ε는 열 복사율을 나타낼 수 있다. A는 전도하는 벽면의 면적을 나타내고,
Figure 112019086174189-pat00002
는 외기의 온도를 나타낼 수 있다. Q는 제어값을 나타낼 수 있다.
제어값(Q)는 제어 학습 모델(320)에서 획득되는 값으로서, 이 제어값에 따라 공조장치(330)의 개도율이 조절될 수 있습니다. 이러한 개도율의 조절에 의해 수집부(340)에서 수집되는 온도 관련 데이터(D')의 온도값이 이전 온도값과 달라질 수 있다.
따라서, 본 발명에서는 하이퍼파라미터를 업데이트하여 에너지 밸런스 학습 모델(310)에서 최적의 예측 온도값(T, T')을 획득하고, 제어 학습 모델(320)에서 최적의 예측 온도값(T, T')에 기초하여 제어 파라미터를 업데이트하여 최적의 제어값을 획득하며, 최적의 제어값에 따라 공조장치(330)의 개도율을 조절함으로써, 공조장치(330)의 온도를 일정하게 유지할 수 있다. 이와 같이, 공조장치(330)의 온도가 일정하게 유지됨에 따라 사용자에게 쾌적환 환경을 제공하고 효율적인 에너지 소비가 가능하다.
수학식 1에서,
Figure 112019086174189-pat00003
는 공조장치(330)를 통해 건물 내부로 유입되는 열을 나타내고,
Figure 112019086174189-pat00004
는 전도, 복사 및 보일러/냉동기에서 발생될 열로서, 건물 내부에서 외부로 나가는 열을 나타낼 수 있다.
본 발명에서, 하이퍼파라미터는 유량(m), 공기의 비열(Cp), 전도하는 벽면의 면적(A) 및 외기의 온도(
Figure 112019086174189-pat00005
) 중 적어도 2개 이상을 포함할 수 있다.
에너지 밸런스 학습 모델(310)은 온도 관련 데이터(D)를 학습하여 예측 온도값(T, T')을 획득할 수 있다. 본 발명의 실시예에서는 최적의 예측 온도값(T, T')을 획득할 수 있도록 에너지 밸런스 학습 모델(310)의 하이퍼파라미터를 업데이트할 수 있다. 즉, 에너지 밸런스 학습 모델(310)의 학습에 의해 출력된 예측 온도값(T, T')의 에러(E)에 기초하여 에너지 밸런스 학습 모델(310)의 하이퍼파라미터를 업데이트할 수 있다.
예측 온도값(T, T')은 하이퍼파라미터에 의존될 수 있다. 즉, 하이퍼파라미터가 변경되면, 예측 온도값(T, T')도 변경될 수 있다. 에너지 밸런스 학습 모델(310)은 상기 업데이트된 하이퍼파라미터에 따라 다시 온도 관련 데이터(D’)를 학습하여 이전보다 더 정확한 예측 온도값(T, T')을 획득할 수 있다. 이와 같은 방법으로 하이퍼파라미터의 업데이트를 반복 수행함으로써, 에너지 밸런스 학습 모델(310)은 더욱 더 정확한, 즉 최적의 예측 온도값(T, T')을 출력할 수 있다.
처음에 에너지 밸런스 학습 모델(310)에 입력되는 온도 관련 데이터(D)는 기 제공된 훈련 데이터일 수 있다. 훈련 데이터는 처음에 에너지 밸런스 학습 모델(310)을 학습시키기 위해 제공된 데이터일 수 있다.
다른 예로서, 공조장치(330)를 일정 기간 동작시켜, 수집부(340)를 이용하여 온도 관련 데이터(D)를 수집할 수 있다. 이 수집된 온도 관련 데이터(D)가 에너지 밸런스 학습 모델(310)을 학습하기 위해 에너지 밸런스 학습 모델(310)로 제공될 수 있다. 일정 기간이라 함은 비교적 짧은 시간 구간일 수 있다. 예컨대, 일정 기간은 1일 이내일 수 있다. 예컨대, 일정 기간은 1시간, 10시간 및 1일 중 하나일 수 있다.
본 발명의 실시예에 따르면, 에너지 밸런스 학습 모델(310)에 매우 적은 수의 하이퍼파라미터의 업데이트에 의해 최적의 예측 온도값(T, T')을 획득할 수 있으므로, 컴퓨팅 파워와 학습 시간을 현저하게 줄일 수 있다.
한편, 에너지 밸런스 학습 모델(310)에 의해 출력된 예측 온도값(T, T')은 제어 학습 모델(320)로 제공될 수 있다. 제어 학습 모델(320)은 예측 온도값(T, T')을 학습하여 제어값(Q, Q')을 획득할 수 있다. 또한, 제어 학습 모델(320)은 예측 온도값(T, T')에 기초하여 제어 파라미터를 업데이트할 수 있다.
제어값(Q, Q')은 제어 파라미터에 의존될 수 있다. 즉, 제어 파라미터가 변경됨에 따라, 제어값(Q, Q')도 변경될 수 있다. 제어 학습 모델(320)은 예측 온도값(T, T')에 따라 제어 파라미터를 업데이트할 수 있다. 제어 학습 모델(320)은 상기 업데이트된 제어 파라미터에 따라 다시 예측 온도값(T, T')을 학습하여 이전보다 더 정확한 제어값(Q, Q')을 획득할 수 있다. 이와 같은 방법으로 제어 파라미터의 업데이트를 반복 수행함으로써, 제어 학습 모델(320)은 더욱 더 정확한, 즉 최적의 제어값(Q, Q')을 출력할 수 있다. 구체적인 제어 파라미터의 업데이트 방법은 나중에 상세히 설명한다.
프로세서(180)는 이와 같이 획득된 최적의 제어값(Q, Q')에 따라 공조장치(330)를 동작하도록 제어할 수 있다.
본 발명의 실시예에 따르면, 에너지 밸런스 학습 모델(310)에 의해 획득된 최적의 예측 온도값(T, T')에 기초하여 보다 정확하고 보다 신속하게 획득된 제어값(Q, Q')에 따라 공조장치(330)가 동작하여 항상 목표 온도로 일정하게 유지되도록 함으로써, 사용자에게 쾌적환 환경을 제공하고 효율적인 에너지 소비가 가능하다.
도 4는 본 발명의 실시예에 따른 공조시스템의 제어 방법을 설명하는 순서도이다.
도 1, 도 3 및 도 4를 참조하면, 프로세서(180)는 제1 온도 관련 데이터(D)에 기초하여 에너지 밸런스 학습 모델(310)을 학습하도록 제어할 수 있다(S1110). 구체적으로, 프로세서(180)는 제1 온도 관련 데이터(D)에 기초하여 업데이트되는 하이퍼파라미터에 따른 제1 예측 온도값(T)을 획득하도록 에너지 밸런스 학습 모델(310)을 학습하도록 제어할 수 있다.
일 예로, 제1 온도 관련 데이터(D)는 에너지 밸런스 학습 모델(310)을 학습하기 전에 공조장치(330)를 일정 기간 동작시켜 수집될 수 있다. 예컨대, 일정 기간은 1시간, 10시간 및 1일 중 하나를 포함할 수 있다.
다른 예로, 제1 온도 관련 데이터(D)는 기 제공된 훈련 데이터일 수 있다. 에너지 밸런스 학습 모델(310)은 제1 온도 관련 데이터(D)를 학습하여 제1 온도 관련 데이터(D)에 대응하는 제1 예측 온도값(T)을 획득할 수 있다. 이 제1 예측 온도값(T)은 제어 학습 모델(320)에서 제어값(Q)을 획득하기 위해 사용될 수 있다. 즉, 제어 학습 모델(320)은 제1 예측 온도값(T)을 학습하여 제어값(Q)을 획득하고, 최적의 제어값(Q)을 획득하기 위해 제어 파라미터를 업데이트할 수 있다. 제어 파라미터의 업데이트는 나중에 상세히 설명한다.
프로세서(180)는 제어 학습 모델(320)을 학습할 수 있다(S1120). 구체적으로, 프로세서(180)는 제어 학습 모델(320)을 학습하여 제1 예측 온도값(T)에 기초하여 제1 제어값(Q)을 획득하도록 제어할 수 있다.
프로세서(180)는 공조장치(330)를 동작시킬 수 있다(S1130). 구체적으로, 프로세서(180)는 제1 제어값(Q)에 따라 공조장치(330)를 동작하도록 제어할 수 있다. 프로세서(180)는 제1 제어값(Q)에 따라 공조장치(330)의 개도율을 조절하고, 상기 조절된 개도율로 공조장치(330)를 동작할 수 있다.
본 발명의 일 실시예에 따르면, 에너지 밸런스 학습 모델(310)에 매우 적은 수의 하이퍼파라미터의 업데이트에 의해 최적의 예측 온도값(T, T')을 획득할 수 있으므로, 컴퓨팅 파워와 학습 시간을 현저하게 줄일 수 있다.
또한, 본 발명의 일 실시예에 따르면, 밸런스 학습 모델에서 적은 수의 하이퍼파라미터가 사용됨으로써, 비교적 적은 양의 온도 관련 데이터(D), 예컨대 1시간, 10시간 또는 1일 동안 수집된 온도 관련 데이터(D)를 이용하더라도 충분히 정확도가 높은 예측 온도값(T)을 획득할 수 있어, 컴퓨팅 파워와 학습 시간을 현저하게 줄일 수 있다. 컴퓨팅 파워가 줄 수 있기 때문에, raspberry pi와 같은 소형 컴퓨터에서도 구현이 가능하다.
도 5은 본 발명의 실시예에 따른 공조시스템의 제어 방법을 설명하는 순서도이다.
도 5는 도 4의 S1130에 이어져 동작될 수 있지만, 이에 대해서는 한정하지 않는다.
예컨대, 도 4의 공조 시스템의 제어 방법에 따르면, 미리 수집된 온도 관련 데이터(제1 온도 관련 데이터(D))에 기반하여 에너지 밸런스 학습 모델(310)과 제어 학습 모델(320)을 학습할 수 잇다. 이에 반해, 도 5의 공조 시스템의 제어 방법에 따르면, 공조장치(330)의 동작에 의해 공조장치(330)에서 수집되는 온도 관련 데이터(제2 온도 관련 데이터(D'))에 기반하여 에너지 밸런스 학습 모델(310)과 제어 학습 모델(320)을 학습할 수 있다.
도 5의 공조 시스템의 제어 방법에 따르면, 에너지 밸런스 학습 모델(310)의 동작, 제어 학습 모델(320)의 동작 및 공조장치(330)의 동작을 한 주기로 하여 이러한 동작이 주기별로 반복적으로 수행함으로써, 에너지 밸런스 학습 모델(310)에서 최적의 예측 온도값(T, T')을 획득하며, 제어 학습 모델(320)에서 최적의 제어값(Q)을 획득하며, 이러한 최적의 제어값(Q)에 따라 공조장치(330)를 제어함으로써, 공조장치(330)의 온도를 일정하게 유지할 수 있다.
도 1, 도 3, 도 4 및 도 5를 참조하면, 프로세서(180)는 제어값(Q)에 따라 조절된 개도율로 공조장치(330)를 동작함으로써, 수집부(340)를 통해 제2 온도 관련 데이터(D')를 획득할 수 있다(S1140).
제2 온도 관련 데이터(D')는 공조장치(330)의 동작이 지속되는 한 수집부(340)에 의해 실시간으로 수집될 수 있다.
프로세서(180)는 제2 온도 관련 데이터(D')에 기초하여 에너지 밸런스 학습 모델(310)을 학습하도록 제어할 수 있다(S1150).
구체적으로, 프로세서(180)는 제2 온도 관련 데이터(D')에 대응하는 제2 예측 온도값(T')를 획득하도록 에너지 밸런스 학습 모델(310)을 학습하도록 제어할 수 있다. 프로세서(180)는 제2 예측 온도값(T')을 최적화하기 위해 에너지 밸런스 학습 모델(310)의 하이퍼파라미터를 업데이트할 수 있다. S1150의 학습 방법은 도 4의 S1110과 비교하여 제1 온도 관련 데이터(D)가 제2 온도 관련 데이터(D')로 변경되었을 뿐이고, 에너지 밸런스 학습 모델(310)의 학습 방법은 도 4의 S1110와 동일하다.
프로세서(180)는 제2 예측 온도값(T')에 기초하여 제어 학습 모델(320)을 학습하도록 제어할 수 있다(S1150).
구체적으로, 프로세서(180)는 제2 예측 온도값(T')에 대응하는 제2 제어값(Q')을 획득하도록 제어 학습 모델(320)을 학습하도록 제어할 수 있다. 프로세서(180)는 제어값(Q')을 최적화하기 위해 제어 학습 모델(320)의 제어 파라미터를 업데이트할 수 있다. S1160의 학습 방법은 도 4의 S1120과 비교하여 제1 제어값(Q)이 제2 제어값(Q')으로 변경되었을 뿐이고, 제어 학습 모델(320)의 학습 방법은 도 4의 S1120와 동일하다.
프로세서(180)는 제2 제어값(Q')으로 개도율을 조절하고, 상기 조절된 개도율로 공조장치(330)를 동작할 수 있다(S1170). S1170의 공조장치(330)의 동작은 도 4의 S1130과 비교하여 제1 제어값(Q) 대신 제2 제어값(Q')에 따라 공조장치(330)를 제어하는 것을 제외하고 동일하다.
앞서 에너지 밸런스 학습 모델(310)에서 하이퍼파라미터를 업데이트함을 언급하였다. 이하 도 6을 참고하여 하이퍼파라미터의 업데이트를 상세히 설명한다.
도 6은 본 발명의 실시예에 따른 공조시스템의 에너지 밸런스 학습 모델을 도시한 블록도이다.
도 1, 도 3 및 도 6을 참조하면, 에너지 밸런스 학습 모델(310)은 에너지 밸런스 학습부(312), 에러 측정부(314) 및 하이퍼파라미터 제어부(316)을 포함할 수 있다.
에너지 밸런스 학습부(312)는 인공 지능 기반으로 학습할 수 있다. 에너지 밸런스 학습부(312)는 미리 수집된 제1 온도 관련 데이터(D)를 학습하여 예측 온도값(제1 예측 온도값(T))을 획득할 수 있다. 제1 온도 관련 데이터(D)는 훈련용 데이터일 수 있다.
에너지 밸런스 학습부(312)는 공조장치(330)의 동작으로부터 실시간으로 수집된 제2 온도 관련 데이터(D')를 학습하여 예측 온도값(제2 예측 온도값(T'))을 획득할 수 있다.
에러 측정부(314)는 에너지 밸런스 학습부(312)에서 획득된 예측 온도값(T, T')을 실제 온도값과 비교하여 예측 온도값(T, T')과 실제 온도값 사이의 차이(E)를 측정할 수 있다. 이 차이(E)가 예측 온도값(T, T')과 실제 온도값 사이의 에러를 의미할 수 있다.
하이퍼파라미터 제어부(316)는 예측 온도값(T, T')과 실제 온도값 사이의 차이(E)를 최소화하도록 하이퍼파라미터의 업데이트를 제어할 수 있다.
본 발명의 실시예에서, 하이퍼파라미터 제어부(316)는 베이지안 최적화(Bayesian Optimization), 강화학습(Reinforcement Learning) 및 베이지안 최적화-하이퍼밴드(Bayesian Optimization & HyperBand) 중 어느 하나의 알고리즘에 기초하여 하이퍼파라미터를 업데이트 할 수 있다.
예컨대, 하이퍼파라미터 제어부(316)는 예측 온도값(T, T')과 실제 온도값 사이의 차이(E)를 최소화하기 위한 하이퍼파라미터 제어신호(U)를 생성하고, 상기 생성된 하이퍼파라미터 제어신호(U)에 전달할 수 있다. 에너지 밸런스 학습부(312)는 하이퍼파라미터 제어신호(U)에 따라 하이퍼파라미터를 업데이트하고, 상기 업데이트된 하이퍼파라미터에 기반하여 온도 관련 데이터(D, D')에 대응하는 최적의 예측 온도값(T, T')을 획득할 수 있다. 하이퍼파라미터 제어신호(U)는 업데이트 제어신호로 지칭될 수 있다.
하이퍼파라미터는 예컨대, 유량(m), 공기의 비열(Cp), 전도하는 벽면의 면적(A) 및 외기의 온도(
Figure 112019086174189-pat00006
) 중 적어도 2개 이상을 포함할 수 있다.
하이퍼파라미터 제어부(316)는 예측 온도값(T, T')과 실제 온도값 사이의 차이(E)를 최소화하도록 적어도 2개 이상의 파라미터의 조합을 이용할 수 있다.
예컨대, A 조합은 유량(m)과 공기의 비열(Cp)의 조합이고, B 조합은 유량(m)과 외기의 온도(
Figure 112019086174189-pat00007
)라고 한다. 이때, 에너지 밸런스 학습부(312)가 A 조합에서의 하이퍼파라미터로 업데이트될 때 예측 온도값(T, T')과 실제 온도값 사이의 제1 차이이고, B 조합에서의 하이퍼파라미터로 업데이트될 때 예측 온도값(T, T')과 실제 온도값 사이의 제2 차이일 때, 제2 차이가 제1 차이보다 작은 경우 B 조합에서의 하이퍼파라미터로 업데이트했을 때의 예측 온도값(T, T')을 최적의 예측 온도값으로 선택하여 제어 학습 모델(320)로 제공할 수 있다.
하이퍼파라미터 제어부(316)는 기 설정된 시간 동안 예측 온도값(T, T')과 실제 온도값 사이의 차이(E)가 최소가 되도록 적어도 2개 이상의 파라미터에 의해 생성되는 복수의 조합에서의 하이퍼파라미터로 에너지 밸런스 학습 모델(310)을 업데이트하도록 제어할 수 있다. 에너지 밸런스 학습부(312)는 상기 업데이트된 하이퍼파라미터에 기반하여 제1 온도 관련 데이터(D) 또는 제2 온도 관련 데이터(D')에 대응하는 최적의 예측 온도값(T, T')을 획득할 수 있다.
도 7은 본 발명의 실시예에 따른 공조시스템의 에너지 밸런스 학습 모델의 동작 방법을 설명하는 순서도이다.
도 1, 도 3, 도 6 및 도 7을 참조하면, 프로세서(180)는 학습된 예측 온도값(T, T')과 실제 온도값의 차이(E)에 기초하여 하이퍼파라미터를 반복적으로 업데이트할 수 있다(S1210).
프로세서(180)는 예측 온도값(T, T')과 실제 온도값의 차이(E)가 최소가 되도록 하이퍼파라미터를 반복적으로 업데이트할 수 있다.
프로세서(180)는 예측 온도값(T, T')과 실제 온도값의 차이(E)가 최소가 된 하이퍼파라미터에 기반하여 온도 관련 데이터(D, D’)에 대응하는 최적의 예측 온도값(T, T')을 획득할 수 있다(S1220).
도 8는 에너지 밸런스 학습 모델을 적용하기 전과 후의 시뮬레이션 결과를 보여준다. 도 8a는 에너지 밸런스 학습 모델을 적용하기 전의 시뮬레이션 결과를 보여주고, 도 8b는 에너지 밸런스 학습 모델을 적용한 후의 시뮬레이션 결과를 보여준다.
도 8a 및 도 8b에서 가로축은 시간(min)을 나타내고, 세로축은 온도(℃)를 나타낼 수 있다. 대략 5,700분에서의 온도 변화를 시뮬레이션하였다.
도 8a에 도시한 바와 같이, 에너지 밸런스 학습 모델을 적용하지 않은 경우, 예측 온도가 실제 온도와 일치하지 않음을 볼 수 있다. 즉, 에너지 밸런스 학습 모델을 적용하지 않은 경우, 예측 온도의 정확도가 현저히 떨어짐을 알 수 있다.
이에 반해, 도 8b에 도시한 바와 같이, 에너지 밸런스 학습 모델(310)을 적용한 경우, 예측 온도가 실제 온도와 거의 일치함을 볼 수 있다. 즉, 에너지 밸런스 학습 모델(310)을 적용한 경우, 예측 온도의 정확도가 현저히 향상됨을 알 수 있다.
도 8a 및 도 8b로부터, 본 발명의 실시예와 같이, 에너지 밸런스 학습 모델(310)을 이용함으로써, 정확도가 높고 최적인 예측 온도가 획득되고, 이러한 최적의 예측 온도에 기초하여 획득된 제어값(Q, Q')에 따라 개도율을 조절하여 공조장치(330)를 동작함으로써, 항상 일정한 온도를 유지하여 사용자에게 쾌적환 환경을 제공하고 효율적인 에너지 소비가 가능해야 한다.
도 9은 본 발명의 실시예에 따른 공조시스템의 제어 학습 모델의 동작 방법을 설명하는 순서도이다.
도 1, 도 3 및 도 9를 참조하면, 프로세서(180)는 에너지 밸런스 학습 모델(310)에서 획득된 예측 온도값(T, T')에 기초하여 제어 파라미터를 업데이트하도록 제어할 수 있다(S1310).
예측 온도값(T, T')은 최적의 예측 온도값(T, T')일 수 있다. 상술한 바와 같이, 프로세서(180)는 에너지 밸런스 학습부(312)에서 획득된 예측 온도값(T, T')과 실제 온도값의 차이(E)가 최소가 된 하이퍼파라미터에 기반하여 온도 관련 데이터(D, D’)에 대응하는 최적의 예측 온도값(T, T')을 획득할 수 있다(도 7의 S1220).
프로세서(180)는 최적의 예측 온도값(T, T')에 기초하여 제어 파라미터를 업데이트할 수 있다. 예컨대, 프로세서(180)는 강화 학습(reinforcement learning)을 기반으로 제어 파라미터를 업데이트할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
프로세서(180)는 업데이트된 제어 파라미터에 기반하여 제어 합습 모델을 학습하여 최적의 제어값(Q, Q')을 획득할 수 있다(S1320).
프로세서(180)는 강화 학습을 기반으로 제어 파라미터를 반복적으로 업데이트하여 최적의 제어값(Q, Q')을 획득할 수 있다.
한편 제어 학습 모델의 제어 방식에 의하여 간단히 설명하도록 한다.
한편 본 발명에서 업데이트 되는 제어 함수는, 하나 이상의 파라미터를 포함하는, 피드백 제어(Feedback Control)의 제어함수일 수 있다.
수학식 2의 PID 제어 함수의 예를 들어, 본 발명에서 사용되는 용어를 설명하도록 한다.
[수학식 2]
Figure 112019086174189-pat00008
PID 제어는 산업 제어시스템에서 널리 사용되는 제어루프(Control loop) 피드백 기법(feedback mechanism)이다.
PID 제어는 비례 제어, 적분 제어 및 미분 제어를 조합한 것으로, 제어하고자 하는 대상의 현재값을 획득하고, 획득한 현재값을 설정값(Set Point, SP)와 비교하여 오차(error)(
Figure 112019086174189-pat00009
)를 계산하고, 오차값을 이용하여 제어에 필요한 제어값(Control Value, CV)(
Figure 112019086174189-pat00010
)을 계산하는 구조로 되어 있다. 여기서, 제어값(CV)는 제어 학습 모델에서 획득된 제어값(도 3의 Q)일 수 있다.
난방 시스템의 예를 들어 설명하면, 현재값은 현재 온도, 설정값(Set Point, SP)은 목표 온도, 오차(error)(
Figure 112019086174189-pat00011
)는 현재 온도와 목표 온도와의 차이를 의미할 수 있다.
한편 PID 제어에서는, 비례항(
Figure 112019086174189-pat00012
), 적분항(
Figure 112019086174189-pat00013
) 및 미분항(
Figure 112019086174189-pat00014
)으로 구성되는 PID 제어 함수에 의하여 제어값(Control Value, CV)(
Figure 112019086174189-pat00015
)이 산출될 수 있다.
이 경우 비례항(
Figure 112019086174189-pat00016
)은 오차값(
Figure 112019086174189-pat00017
)에 비례하고, 적분항(
Figure 112019086174189-pat00018
)은 오차값(
Figure 112019086174189-pat00019
)의 적분에 비례하며, 미분항(
Figure 112019086174189-pat00020
)은 오차값(
Figure 112019086174189-pat00021
)의 미분에 비례한다.
그리고, 비례항, 적분항 및 미분항은 각각, 비례항의 이득(gain)인 비례 이득 파라미터(
Figure 112019086174189-pat00022
), 적분항의 이득(gain)인 적분 이득 파라미터(
Figure 112019086174189-pat00023
), 미분항의 이득(gain)인 미분 이득 파라미터(
Figure 112019086174189-pat00024
)를 포함할 수 있다.
PID 파라미터는, PID 함수에 포함되는 각 항들에 대한 이득(gain)을 포함할 수 있다. 즉 PID 파라미터는, 비례 이득 파라미터(
Figure 112019086174189-pat00025
), 적분 이득 파라미터(
Figure 112019086174189-pat00026
) 및 미분 이득 파라미터(
Figure 112019086174189-pat00027
)를 포함할 수 있다.
PID 제어기의 출력은 제어값(Control Value, CV)(
Figure 112019086174189-pat00028
)이며, 제어값(Control Value, CV)(
Figure 112019086174189-pat00029
)은 제어 학습 모델에서 입력으로 사용될 수 있다. 다시 말해서 제어값(Control Value, CV)(
Figure 112019086174189-pat00030
)은 조작 변수(Manipulated Mariable, MV)를 의미할 수 있다.
그리고 제어 학습 모델은 제어값(Control Value, CV)(
Figure 112019086174189-pat00031
)에 대응하는 제어를 수행할 수 있다.
난방 시스템의 예를 들어 설명하면, 제어 함수에 의하여 80퍼센트의 제어값(Control Value, CV)(
Figure 112019086174189-pat00032
)이 출력된 경우, 난방 시스템은 80퍼센트의 제어 값(Control Value, CV)(
Figure 112019086174189-pat00033
)에 대응하는 제어, 즉 밸브를 80퍼센트 개방하는 제어를 수행할 수 있다.
한편 제어 학습 모델의 제어에 따른 출력값은, 제어 학습 모델의 제어 대상이 제어 학습 모델의 제어에 의하여 나타내는 상태를 의미할 수 있다. 다시 말해서, 출력값은 프로세스 변수(Process Variable, PV)를 의미할 수 있다.
예를 들어 난방 시스템의 경우, 제어 대상은 온도이며, 출력값은 난방 시스템의 제어에 의하여 유지되거나 변경되는 온도를 의미할 수 있다.
한편 제어 학습 모델은 출력값을 감지하고, 출력값을 상술한 현재값으로 사용할 수 있다. 이러한 방식으로 제어루프(Control loop)가 형성되고, 피드백 기법(feedback mechanism)에 의한 제어가 수행되게 된다.
한편 프로세서(180)는, 강화 학습을 기반으로 제어 학습 모델에 제어값을 제공하는 제어 함수를 업데이트 할 수 있다.
강화 학습(Reinforcement Learning)은 에이전트(Agent)가 매순간 어떤 행동을 해야 좋을지 판단할 수 있는 환경이 주어진다면, 데이터 없이 경험으로 가장 좋을 길을 찾을 수 있다는 이론이다.
강화 학습(Reinforcement Learning)은 마르코프 결정 프로세스(Markov Decision Process, MDP)에 의하여 수행될 수 있다.
마르코프 결정 프로세스(Markov Decision Process, MDP)를 간단히 설명하면, 첫번째로 에이전트가 다음 행동을 하기 위해 필요한 정보들이 구성된 환경이 주어지며, 두번째로 그 환경에서 에이전트가 어떻게 행동할지 정의하고, 세번째로 에이전트가 무엇을 잘하면 점수를 주고 무엇을 못하면 벌점을 줄지 정의하며, 네번째로 미래의 보상이 최고점에 이를 때까지 반복 경험하여 최적의 행동 정책을 도출하게 된다.
이러한 마르코프 결정 과정은 본 발명의 실시예에 따른 프로세서(180)에도 적용될 수 있다.
구체적으로 첫번째로 프로세서(180)에게는 프로세서(180)가 제어 함수를 업데이트 하기 위해 출력값이나 출력값의 패턴이 제공되는 환경이 주어지며, 두번째로 목표 달성을 위하여 출력값이 베이스 라인을 추종하도록 프로세서(180)가 행동할 것을 정의하고, 세번째로 인공지능부가 베이스 라인을 추종할수록 보상(reward)을 부여하며, 네번째로 프로세서(180)는 보상(reward)의 총합이 최대가 될 때까지 반복 학습하여, 최적의 제어 함수를 도출하게 된다.
이 경우 프로세서(180)는 제어 함수에 따른 출력값에 기초하여, 피드백 제어 함수를 업데이트 할 수 있다.
구체적으로, 제어 학습 모델이 제어 함수로부터 제공된 제어값에 대응하는 제어를 수행하는 경우, 프로세서(180)는 제어시스템의 제어에 따른 출력값이 목표를 달성할 수 있도록 피드백 제어 함수의 하나 이상의 파라미터를 업데이트 할 수 있다.
그리고 프로세서(180)는 강화 학습에 의하여, 제어 함수의 파라미터를 변경하는 행동을 취하고, 행동에 따른 상태(출력값)와 보상(reward)을 획득하며, 이에 따라 보상(reward)을 최대화 하는 정책(policy)을 획득할 수 있다.
이 경우 프로세서(180)가 달성해야 하는 목표는 보상(reward)이 주어지는 지점, 보상(reward)의 크기 등에 의해 설정될 수 있다.
그리고 프로세서(180)는 시행착오(try and error) 방식으로 제어 함수의 파라미터를 다양하게 변경할 수 있다. 또한 파라미터가 변경된 제어 함수에 따라 출력값이 획득되는 경우, 획득된 출력값에 보상(reward)을 부여하여 보상(reward)을 최대화 하는 정책(policy)을 획득할 수 있다.
한편, 강화 학습에 의하여 프로세서(180)가 달성해야 하는 최고의 정책(best policy)을 미리 설정하고, 프로세서(180)이 최고의 정책(best policy)을 추종하도록 행동하게 하면, 프로세서(180)의 학습량을 대폭 줄일 수 있다.
따라서 본 발명은 강화 학습에 의하여 프로세서(180)가 달성해야 하는 최고의 정책(best policy)을 미리 설정할 수 있다.
이 경우 프로세서(180)가 달성해야 하는 최고의 정책(best policy)은 제어 학습 모델의 제어에 따른 출력값의 이상적인 변화를 의미할 수 있다.
여기서 제어 학습 모델의 제어에 따른 출력값의 이상적인 변화를 베이스 라인(base line)이라 명칭할 수 있다.
그리고 프로세서(180)는 제어 학습 모델의 제어에 따른 출력값이 상술한 베이스 라인(base line)을 추종하는 것을 목표로, 제어 학습 모델에 제어값을 제공하는 제어 함수를 업데이트 할 수 있다.
이와 관련해서는 도 10를 참고하여 구체적으로 설명한다.
도 10는 본 발명의 실시예에 따른, 베이스 라인을 설정하는 방법을 설명하기 위한 도면이다.
베이스 라인(base line)은, 제어 학습 모델의 최대 제어에 따른 출력값의 변화를 나타내는 제1 라인을 포함할 수 있다.
구체적으로 제1 라인은, 제어 함수의 최대 제어값에 따라 제어 학습 모델이 최대 제어를 수행하는 경우에 나타나는 출력값의 변화를 나타낼 수 있다.
난방 시스템의 예를 들어 설명하면, 제어 함수에 의하여 최대 100퍼센트의 제어값이 출력되는 경우, 난방 시스템은 100퍼센트의 제어값에 대응하는 제어, 즉 밸브를 100퍼센트 개방하는 제어를 수행할 수 있다.
이 경우 제1 라인은 밸브를 100프로 개방했을 때, 제어 대상인 온도의 변화를 의미할 수 있다.
한편 제어 학습 모델의 최대 제어에 따른 출력값의 변화(510)가 그대로 제1 라인이 될 수 있다.
다만 이에 한정되지 않으며, 제어 학습 모델의 최대 제어에 따른 출력값의 평균 변화율(520)이 제1 라인이 될 수도 있다.
예를 들어, 난방 시스템이 제1 시점(t1)에 제1 온도(T1)에서 동작을 시작하고, 최대 제어를 수행하여 제2 시점(t2)에 제2 온도(T2)에 도달한 경우, 제1 라인은 제1 시점(t1)에서 제2 시점(t2)에 도달하기 까지 온도의 평균 변화율을 나타낼 수 있다.
한편 프로세서(180)는 제어 학습 모델이 설치된 환경에서 제1 라인을 설정할 수 있다.
구체적으로 프로세서(180)는 제어 학습 모델이 설치된 환경에서 제어 학습 모델이 최대 제어를 수행하도록 제어 학습 모델을 제어할 수 있다.
예를 들어 제어 학습 모델이 건물 내 특정 방의 파이프에 난방용 물을 공급하는 밸브 시스템인 경우, 인공지능 장치(120)는 특정 방의 파이프에 난방용 물을 공급하는 밸브 시스템이 밸브를 최대로 개방하도록 제어할 수 있다.
인공지능 장치(100)와 제어 학습 모델이 분리되어 구성되는 경우, 프로세서(180)는 제어 학습 모델이 최대 제어를 수행하도록 하기 위한 제어 명령을 제어 학습 모델에 전송할 수 있다.
반면에, 인공지능 장치(100)와 제어 학습 모델이 통합적으로 구성되는 경우, 프로세서(180)는 최대 제어를 수행하도록 동작부를 직접 제어할 수 있다.
한편 제어 학습 모델이 최대 제어를 수행하는 중, 프로세서(180)는 제어 학습 모델의 최대 제어에 따른 출력값을 획득할 수 있다. 그리고 프로세서(180)는 획득한 출력값에 기초하여 제1 라인을 설정할 수 있다.
도 11은 본 발명의 실시예에 따른, 제2 라인 및 인공지능부가 베이스 라인을 추종하는 것을 목표로 강화학습을 수행하는 방법을 설명하기 위한 도면이다.
베이스 라인(520)의 제1 라인(521)은 제어 학습 모델의 최대 제어에 따른 출력값의 변화를 의미하는 것으로써, 도 10에서 이미 설명한 바 있다.
여기서 제1 라인(521)을 설정하는 의미는, 설정값에 빨리 도달한다는 목표를 프로세서(180)에게 제공하기 위한 것일 수 있다.
한편 베이스 라인(520)은 제2 라인(522)을 더 포함할 수 있다.
여기서 제2 라인(522)을 설정하는 의미는, 설정값에 도달한 후, 출력값의 오버슛(overshoot)을 줄이거나 출력값이 설정값 이상 및 이하로 출렁거리는 것을 줄이는 목표를 프로세서(180)에게 제공하는 것일 수 있다.
따라서 제2 라인(522)은 설정값과 일치할 수 있다. 여기서 설정값은 특정 동작을 수행하는 경우 출력값이 도달해야 하는 목표 값일 수 있다.
예를 들어 현재 온도가 24도이며 온도를 30도로 상승시키라는 동작 명령이 수신된 경우, 제어 학습 모델은 온도를 30도로 상승시키는 동작을 수행할 수 있다. 이 경우 프로세서(180)는 제어 학습 모델의 최대 제어 시 온도의 평균 변화율을 나타내는 제1 라인 및 30도에 일치하도록 형성되는 제2 라인을 포함하는 베이스 라인을 설정할 수 있다.
다른 예를 들어 예를 들어 현재 온도가 24도이며 온도를 27도로 상승시키라는 동작 명령이 수신된 경우, 제어 학습 모델은 온도를 27도로 상승시키는 동작을 수행할 수 있다. 이 경우 프로세서(180)는 제어 학습 모델의 최대 제어 시 온도의 평균 변화율을 나타내는 제1 라인 및 27도에 일치하도록 형성되는 제2 라인을 포함하는 베이스 라인을 설정할 수 있다.
한편 프로세서(180)는 제어 학습 모델의 제어에 따른 출력값이 베이스 라인(520)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
여기서 베이스 라인을 추종하는 것을 목표로 한다는 의미는, 제어 학습 모델의 제어에 따른 출력값이 베이스 라인(520)에 최대한 접근하는 것을 목표로 한다는 의미일 수 있다.
또한 프로세서(180)는 제어 학습 모델의 제어에 따른 출력값이 베이스 라인(520)을 추종하는 것을 목표로 강화 학습을 수행함으로써, 제어 함수의 하나 이상의 파라미터를 획득할 수 있다.
구체적으로 프로세서(180)는 시행착오 (try and error) 방식으로 제어 함수의 파라미터를 다양하게 변경하면서, 제어 학습 모델의 제어에 따른 출력값(610, 620)을 획득할 수 있다.
그리고 프로세서(180)는 베이스 라인(520)과 출력값 사이의 갭(Gap)을 기초로 리워드(reward)를 부여하여, 제어 학습 모델의 제어에 따른 출력값이 베이스 라인(520)을 가장 가깝게 추종하는 하나 이상의 파라미터를 획득할 수 있다.
구체적으로 프로세서(180)는 하나 이상의 지점, 또는 모든 지점에서 베이스 라인(520)과 출력값 사이의 갭(Gap)을 산출할 수 있다.
그리고, 베이스 라인(520)과 출력값 사이의 갭이 작을수록 높은 보상 보상(reward)이 부여될 수 있으며, 프로세서(180)는 보상(reward)을 최대화 하는 하나 이상의 파라미터를 획득할 수 있다.
예를 들어 제1 파라미터를 포함하는 제어 함수의 제어값에 따라 제어 학습 모델이 제어를 수행한 경우에 나타나는 출력값을 제1 출력값(610)이라 가정하고, 제2 파라미터를 포함하는 제어 함수의 제어값에 따라 제어 학습 모델이 제어를 수행한 경우에 나타나는 출력값을 제2 출력값(620)이라 가정하여 설명한다.
제1 출력값(610)과 베이스 라인(520) 사이의 갭(G1, G3, G5, G7, G9, G11, G13, G15)은, 제2 출력값(620)과 베이스 라인(520) 사이의 갭(G2, G4, G6, G8, G10, G12, G14, G16)보다 작다.
즉 제2 파라미터를 사용하였을 때보다 제1 파라미터를 사용하였을 때 더 높은 보상(reward)이 부여되게 된다. 이 경우 프로세서(180)는 제1 파라미터를 출력값이 베이스 라인을 가장 가깝게 추종 하는 파라미터로써 획득할 수 있다.
이러한 방식으로 프로세서(180)는 계속적으로 강화 학습을 수행함으로써, 제어 학습 모델의 제어에 따른 출력값이 베이스 라인을 가장 가깝게 추종하는 파라미터를 획득할 수 있다.
그리고 제어 학습 모델의 제어에 따른 출력값이 베이스 라인을 가장 가깝게 추종하는 새로운 파라미터를 획득한 경우, 프로세서(180)는 기존의 제어 함수의 파라미터를 새롭게 획득한 파라미터로 변경함으로써, 기존의 제어 함수를 업데이트 할 수 있다.
한편 도 11에서 도시한 갭(G1, G3, G5, G7, G9, G11, G13, G15)은, 몇 개의 지점에서의 출력값과 베이스 라인의 거리로써 표현한 것으로, 갭을 나타내는 일례에 불과하다.
예를 들어 출력값과 베이스 라인과의 갭은 출력값과 베이스 라인 사이의 공간의 면적을 의미할 수 있다.
즉 제1 파라미터를 사용하였을 때의 제1 출력값(610)과 베이스 라인(520) 사이의 공간의 면적은, 제2 파라미터를 사용하였을 때의 제2 출력값(620)과 베이스 라인(520) 사이의 면적보다 작을 수 있다. 이 경우 제2 파라미터를 사용하였을 때보다 제1 파라미터를 사용하였을 때 더 높은 보상(reward)이 부여되며, 프로세서(180)는 제1 파라미터를 출력값이 베이스 라인을 가장 가깝게 추종하게 하는 파라미터로써 획득할 수 있다.
즉 본 명세서에서 설명하는 갭(Gap)은 베이스 라인과 출력값의 차이를 의미할 수 있다.
제어 학습 모델의 제어에 따른 출력값은 제어 학습 모델의 제어에 의해서만 결정되는 것이 아니라, 매우 다양한 변수에 의해서 결정되게 된다.
난방 시스템의 예를 들면, 제어 학습 모델의 제어에 따른 출력값은 계절, 날씨, 시간, 날짜, 공간의 넓이, 창문이 열려있는지, 공간 내 사람 수, 방문이 열려있는지, 단열재 등 매우 다양한 변수가 복합적으로 작용하여 결정되게 된다.
인간이 이렇게 다양한 변수들을 분석하여 최적의 파라미터를 산출하는 것은 불가능 하기 때문에, 기존의 PID 파라미터의 설정은 인간의 경험과 직관을 바탕으로 인간이 직접 설정하는 방식으로 진행이 되었다. 유사한 예로써, 엄청나게 많은 경우의 수가 존재하는 바둑에서, 바둑 기사들이 경험과 직관을 바탕으로 수를 찾아내는 것을 들 수 있다.
다만 본 발명은 인공지능 에이전트에게 학습의 환경을 제공하고, 방대한 데이터를 인공지능 에이전트가 학습하게 함으로써, 출력값을 결정짓는 다양한 변수들에도 불구하고 최적의 파라미터를 산출할 수 있는 장점이 있다. 유사한 예로써, 엄청나게 많은 경우의 수가 존재하는 바둑에서, 인공지능이 기보를 학습하여 최적의 수를 찾아내는 것을 들 수 있다.
또한 다양한 변수가 작용하고 동작 할 때마다 설정값이 변경될 수 있는 제어 학습 모델의 동작 환경에 있어서, 인공지능의 목표를 어떻게 설정해야 하는지가 문제될 수 있다.
다만 본 발명은 베이스 라인이라는 명확한 목표를 인공지능에게 부여하고, 인공지능은 베이스 라인과의 갭을 최소화 하는 방향으로 학습을 수행하기 때문에, 인공지능의 학습 능력과 학습 속도를 향상시킬 수 있는 장점이 있다.
또한, 베이스 라인 중 제1 라인은 제어 학습 모델의 최대 제어에 따른 출력값을 나타내며, 베이스 라인 중 제2 라인은 특정 동작에서의 설정값을 나타낸다. 따라서 본 발명에 따르면, 설정값에 빨리 도달하라는 목표 및 출력값의 오버슛이나 출렁거림을 줄이는 등의 시스템의 안정화를 위한 목표를 인공지능에게 동시에 부여할 수 있는 장점이 있다.
또한 동일한 제어 학습 모델이 동일한 동작을 수행하더라도, 제어 학습 모델이 설치된 장소에 따라 출력값은 상이해질 수 있다.
예를 들어 더운 기후의 태국에 설치된 난방 시스템과 추운 기후의 러시아에 설치된 난방 시스템이 똑같이 밸브를 80프로 열더라도, 태국에서의 출력값의 평균 변화율과 러시아에서의 출력값의 평균 변화율은 상이할 수 있다.
다른 예를 들어, 단열이 잘되는 제1 빌딩과 단열이 잘 되지 않는 제2 빌딩에서의 출력값의 평균 변화율은 서로 상이할 수 있다.
다만 본 발명의 제1 라인은 제어 학습 모델이 설치된 환경에서 최대 제어에 의한 출력값에 기초하여 설정된다. 즉 제1 라인은 제어 학습 모델이 설치된 환경의 특성을 반영하여 설정되고, 인공지능은 제1 라인을 추종하는 것을 목표로 강화 학습을 수행하기 때문에, 본 발명에 따르면 제어 학습 모델이 설치된 환경에 부합하는 최적의 제어 함수를 찾을 수 있는 장점이 있다.
한편 본 발명에 따른 인공지능부는, 제어 학습 모델의 복수의 동작 목표에 따라 하나 이상의 베이스 라인 및 하나 이상의 베이스 라인과 출력값의 갭에 따른 보상 중 적어도 하나를 설정하고, 하나 이상의 베이스 라인과 출력값의 갭을 기초로 강화 학습(Reinforcement Learning)을 수행할 수 있다.
여기서 제어 학습 모델의 복수의 동작 목표는, 출력값이 설정값에 빨리 도달하는 목표, 출력값의 출렁임을 줄이는 목표, 출력값의 오버슛을 줄이는 목표, 출력값이 추종해야 하는 목표, 출력값이 회피해야 하는 목표 중 적어도 하나를 포함할 수 있다.
먼저, 제어 학습 모델의 복수의 동작 목표에 따라 하나 이상의 베이스 라인과 출력값의 갭에 따른 보상을 설정하여 강화 학습을 수행하는 방법을 설명한다.
도 12는 본 발명의 실시예에 따른, 갭의 위치에 따라 상이한 보상을 부여하는 방법을 설명하기 위한 도면이다.
프로세서(180)는 제어 학습 모델의 복수의 동작 목표에 따라 하나 이상의 베이스 라인과 출력값의 갭에 따른 보상을 설정할 수 있다.
예를 들어 프로세서(180)는 출력값이 추종해야 하는 목표에 따라 베이스 라인(520)을 설정하고, 출력값이 설정값에 빨리 도달하는 목표에 따라 제1 라인(521)과 출력값 사이의 갭에 대한 보상을 설정하고, 출력값의 오버슛을 줄이고 출렁임을 줄이기 위한 목표에 따라 제2 라인(522)과 출력값 사이의 갭에 대한 보상을 설정할 수 있다.
이 경우 프로세서(180)는 베이스 라인과 출력값 사이의 갭(Gap)의 위치에 따라 상이한 보상(reward)을 부여할 수 있다.
구체적으로, 프로세서(180)는 제1 라인(521)과 출력값 사이의 갭을 기초로 제1 보상을 부여하고, 제2 라인(522)과 출력값 사이의 갭을 기초로 제2 보상을 부여할 수 있다. 이 경우 제1 보상과 제2 보상은 서로 상이할 수 있다.
예를 들어 제1 파라미터를 포함하는 제어 함수의 제어값에 따라 제어 학습 모델이 제어를 수행한 경우에 나타나는 출력값을 제1 출력값(710)이라 가정하고, 제1 보상이 제2 보상보다 크다고 가정하여 설명한다.
베이스 라인(520)과 제1 출력값(710) 사이의 갭(G21, G23, G25, G27, G29)은 제1 라인(521)과 제1 출력값(710) 사이의 갭(G21, G23) 및 제2 라인(522)과 제1 출력값(710) 사이의 갭(G25, G27, G29)을 포함할 수 있다.
한편 제1 라인(521)과 제1 출력값(710) 사이의 갭(G21, G23)이 작을수록 제1 보상이 부여되며, 제2 라인(522)과 제1 출력값(710) 사이의 갭(G25, G27, G29)이 작을수록 제2 보상이 부여된다. 또한 제1 보상은 제2 보상보다 클 수 있다.
예를 들어 제1 라인(521)과 제1 출력값(710) 사이의 제1 갭(G21)이 10이고, 제2 라인(522)과 제1 출력값(710) 사이의 제2 갭(G29)이 10이 경우, 제1 갭(G21)에는 5의 보상이, 제2 갭(G29)에는 2의 보상이 부여될 수 있다.
따라서, 제1 보상이 제2 보상보다 큰 상태에서 베이스 라인을 추종하는 최적의 제어 함수를 획득한 경우, 최적의 제어 함수에 따른 출력값은 제2 라인(522)보다 제1 라인(521)에 더욱 접근한 형태일 수 있다. 즉 최적의 제어 함수에 따른 출력값과 제1 라인(521)의 갭은, 최적의 제어 함수에 따른 출력값과 제2 라인(522)의 갭보다 작을 수 있다.
예를 들어 제1 보상이 제2 보상보다 큰 경우에 최적의 제어 함수에 따른 출력값이 제1 출력값(710)이라고 가정하는 경우, 제1 출력값(710)은 제2 라인(522)보다 제1 라인(521)에 더욱 접근한 형태일 수 있다.
반대로, 제2 파라미터를 포함하는 제어 함수의 제어값에 따라 제어 학습 모델이 제어를 수행한 경우에 나타나는 출력값을 제2 출력값(720)이라 가정하고, 제1 보상이 제2 보상보다 작다고 가정하여 설명한다.
베이스 라인(520)과 제2 출력값(720) 사이의 갭(G22, G24, G26, G28, G30)은 제1 라인(521)과 제2 출력값(720) 사이의 갭(G522, G24) 및 제2 라인(522)과 제2 출력값(720) 사이의 갭(G26, G28, G30)을 포함할 수 있다.
한편 제1 라인(521)과 제2 출력값(720) 사이의 갭(G22, G24)이 작을수록 제1 보상이 부여되며, 제2 라인(522)과 제2 출력값(720) 사이의 갭(G26, G28, G30)이 작을수록 제2 보상이 부여된다. 또한 제1 보상은 제2 보상보다 작을 수 있다.
예를 들어 제1 라인(521)과 제2 출력값(720) 사이의 제1 갭(G22)이 10이고, 제2 라인(522)과 제2 출력값(720) 사이의 제2 갭(G28)이 10이 경우, 제1 갭(G22)에는 2의 보상이, 제2 갭(G28)에는 4의 보상이 부여될 수 있다.
따라서 제1 보상이 제2 보상보다 작은 상태에서 베이스 라인을 추종하는 최적의 제어 함수를 획득한 경우, 최적의 제어 함수에 따른 출력값은 제1 라인(521)보다 제2 라인(522)에 더욱 접근한 형태일 수 있다. 즉 최적의 제어 함수에 따른 출력값과 제2 라인(522)의 갭은, 최적의 제어 함수에 따른 출력값과 제1 라인(521)의 갭보다 작을 수 있다.
예를 들어 제1 보상이 제2 보상보다 작은 경우에 최적의 제어 함수에 따른 출력값이 제2 출력값(720)이라고 가정하는 경우, 제2 출력값(720)은 제1 라인(521)보다 제2 라인(522)에 더욱 접근한 형태일 수 있다.
앞서, 제1 라인(521)을 설정하는 의미는, 설정값에 빨리 도달한다는 목표를 프로세서(180)에게 부여하는 것이고, 제2 라인(522)을 설정하는 의미는, 설정값에 도달한 후, 출력값의 오버슛(overshoot)을 줄이거나 출력값이 설정값 이상 및 이하로 출렁거리는 것을 줄이는 목표를 프로세서(180)에 부여하는 것이라 설명한 바 있다.
즉 본 발명은 갭의 위치에 따라 상이한 보상을 부여하는 방식으로 다양한 동작 목표에 가중치를 부여한 후, 인공지능이 가중치가 부여된 동작 목표에 따른 최적의 파라미터를 찾아내도록 할 수 있다.
예를 들어 제1 출력값(710)을 참고하면, 제1 라인(521)과 출력값의 갭에 더 높은 보상을 부여하는 경우에는 출력값이 설정값에 도달하는 시점(t3)이 빨라지나, 오버슛(overshoot)이 커지거나 출력값이 설정값 이상 및 이하로 출렁거리는 것이 심해진다. 따라서 설정값까지의 빠른 제어 측면에서는 유리하나, 전력 사용량 및 시스템 안정화 측면에서는 불리할 수 있다.
다른 예를 들어 제2 출력값(720)을 참고하면, 제2 라인(522)과 출력값의 갭에 더 높은 보상을 부여하는 경우에는 출력값이 설정값에 도달하는 시점(t4)이 늦어지고, 오버슛(overshoot)이 작아지거나 출력값이 설정값 이상 및 이하로 출렁거리는 것이 작아질 수 있다. 따라서 설정값 까지의 빠른 제어 측면에서는 불리하나, 전력 사용량 및 시스템 안정화 측면에서는 유리할 수 있다.
즉 본 발명은 갭의 위치에 따라 부여되는 보상의 크기를 변경함으로써 다양한 동작 목표들을 중요도에 따라 다양하게 조합하고, 상응하는 최적의 파라미터를 획득할 수 있는 장점이 있다.
한편 앞선 설명에서는 제1 라인과 출력값 사이의 갭과 제2 라인과 출력값 사이의 갭에 상이한 보상을 부여한다고 설명하였으나 이에 한정되지 않으며, 보상의 크기는 동작 목표에 따라 다양한 방식으로 부여될 수 있다.
예를 들어 오버슛(overshoot)을 최소화 하는 동작 목표에 높은 가중치를 부여하기를 원하는 경우, 다른 갭(G27, 29)보다 베이스 라인(520)과 오버슛(overshoot)이 발생하는 위치의 갭(G25)에 더 큰 보상이 부여될 수 있다.
다른 예를 들어 출력값이 설정값 이상 및 이하로 출렁거리는 것을 줄여서 시스템의 빠른 안정화에 높은 가중치를 부여하기 원하는 경우, 다른 갭(G25) 보다 출력값이 설정값 이상 및 이하로 출렁거림이 발생하는 위치의 갭(G27, G29)에 더 큰 보상이 부여될 수 있다.
도 13는 본 발명의 실시예에 따른, 베이스 라인과 출력값의 비교 범위를 설명하기 위한 도면이다.
프로세서(180)는 제어 학습 모델의 제어에 따른 출력값(810)이 베이스 라인(520)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
이 경우 프로세서(180)는 출력값(810)이 설정값(T2)에 도달하기 까지 출력값(810)이 제1 라인(521)을 추종하고, 출력값(810)이 설정값(T2)에 도달한 이후에는 출력값(810)이 제2 라인(522)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
한편 제어 학습 모델이 동작을 시작한 시점(t1)으로부터 출력값(810)이 설정값(T2)에 도달한 시점(t3)을 제1 시간(Δ이라 명칭한다.
프로세서(180)는 출력값(810)이 설정값(T2)에 도달하기까지의 제1 시간(Δ동안 출력값이 제1 라인(521)을 추종하고, 출력값(810)이 설정값(T2)에 도달한 후의 제2 시간(Δ동안 출력값이 제2 라인(522)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
즉 프로세서(180)는 제1 시간(Δt5) 구간 및 제2 시간(Δ구간에서의 출력값(810)과 베이스 라인(520)의 갭에 리워드를 부여하여 강화 학습을 수행할 수 있다.
이 경우 제1 시간(Δ과 제2 시간(Δ은 비례 관계로써 아래와 같은 수식으로 나타낼 수 있다. 여기서 α는 비례 상수일 수 있다.
[수학식 3]
제2 시간 = α * 제1 시간
예를 들어 비례 상수가 1이고, 제어 학습 모델이 동작을 시작하고 출력값이 설정값에 도달하는 제1 시간이 2분인 경우, 프로세서(180)는 출력값이 설정값에 도달하기까지의 2분 동안 출력값이 제1 라인(521)을 추종하고, 출력값이 설정값에 도달한 후의 2분 동안 출력값이 제2 라인(522)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
다른 예를 들어 비례 상수가 0.8이고, 제어 학습 모델이 동작을 시작하고 출력값이 설정값에 도달하는 제1 시간이 2분인 경우, 프로세서(180)는 출력값이 설정값에 도달하기까지의 2분 동안 출력값이 제1 라인(521)을 추종하고, 출력값이 설정값에 도달한 후의 1분 36초 동안 출력값이 제2 라인(522)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다.
출력값이 설정값 이상 및 이하로 출렁거리는 것은 에너지의 투입에 대한 반사적인 반응으로써, 에너지의 투입이 큰 만큼 출렁거림이 더 오랫동안 발생할 수 있다.
예를 들어 난방 시스템의 예를 들면, 출력값을 최초 25도로부터 설정값 26도로 상승시키는 경우보다 출력값을 최초 25도로부터 설정값 30도로 상승시키는 경우에, 제1 시간(Δt5)은 더 길어지며, 밸브의 개방에 따라 파이프를 통과하는 난방용 물이 많아진다. 이에 따라 출력값을 최초 25도로부터 설정값 30도로 상승시키는 경우에, 온도가 설정값에 도달한 후의 온도의 출렁거림이 더 오래 지속될 수 있다.
본 발명은 제1 시간(Δ과 제2 시간(Δ을 비례 관계로 설정 한다. 따라서 본 발명은 에너지의 투입이 클수록 더 오랫동안 출력값을 모니터링 한 후 강화 학습을 수행함으로써, 최적의 파라미터를 산출할 수 있는 장점이 있다.
다음은, 제어 학습 모델의 복수의 동작 목표에 따라 하나 이상의 베이스 라인을 설정하여 강화 학습을 수행하는 방법에 대하여 설명한다.
도 14은 본 발명의 실시예에 따른, 추가적인 베이스 라인을 설정하고, 추가적인 베이스 라인을 회피하는 것을 목표로 강화학습을 수행하는 방법을 설명하기 위한 도면이다.
프로세서(180)는 제어 학습 모델의 복수의 동작 목표에 따라 하나 이상의 베이스 라인을 설정할 수 있다.
예를 들어 프로세서(180)는 출력값이 추종해야 하는 목표에 따라 베이스 라인(520)을 설정하고, 출력값이 회피해야 하는 목표에 따라 제2 베이스 라인(910) 및 제3 베이스 라인(920) 중 적어도 하나를 설정할 수 있다.
앞서, 베이스 라인(520)은 제어 학습 모델의 제어에 따른 출력값의 이상적인 변화라고 설명한 바 있다.
이에 반해 제2 베이스 라인(910)은 제어 학습 모델의 제어에 따른 출력값이 회피해야 하는 회피 목표를 의미할 수 있다.
난방 시스템의 예를 들어 설명하면, 제2 베이스 라인(910)은 특정 온도를 의미할 수 있다.
예를 들어, 온도가 특정 온도 이상 올라가는 것을 막아서 사용자가 불쾌감을 느끼는 것을 방지하기 위하여, 또는 온도가 특정 온도 이상 올라가는 것을 막아서 과도한 전력이 소모되는 것을 방지하기 위하여, 제2 베이스 라인(910)은 특정 온도로써 설정 될 수 있다. 예를 들어 설정값이 30도이고, 특정 온도는 40도일 수 있다.
그리고 프로세서(180)는 출력값이 베이스 라인(520)을 추종하고 제2 베이스 라인(910)을 회피하는 것을 목표로 강화 학습을 수행하여, 제어 학습 모델에 제어값을 제공하는 제어 함수를 업데이트 할 수 있다. 여기서 제2 베이스 라인을 회피하는 것을 목표로 한다는 의미는, 제어 학습 모델의 제어에 따른 출력값이 제2 베이스 라인(910)에 최대한 멀어지는 것을 목표로 한다는 의미일 수 있다.
구체적으로 프로세서(180)는 베이스 라인(520)과 출력값(810) 사이의 갭(G31, G32)을 기초로 보상(reward)을 부여하고, 제2 베이스 라인(910)과 출력값(810) 사이의 갭(G33, G34)을 기초로 벌점(penalty)를 부여할 수 있다.
더욱 구체적으로, 베이스 라인(520)과 출력값(810) 사이의 갭(G31, G32)이 작을수록 높은 보상(reward)이 부여될 수 있으며, 제2 베이스 라인(910)과 출력값(810) 사이의 갭(G33, G34)이 작을수록 높은 벌점(penalty)이 부여될 수 있다.
그리고 프로세서(180)는 보상(reward) 및 벌점(penalty)의 합을 최대화 하는 하나 이상의 파라미터를 획득하고, 보상(reward) 및 벌점(penalty)의 합을 최대화 하는 하나 이상의 파라미터가 획득된 경우 기존의 제어 함수의 파라미터를 새롭게 획득한 파라미터로 변경함으로써, 기존의 제어 함수를 업데이트 할 수 있다.
이러한 방식으로 프로세서(180)는 계속적으로 강화 학습을 수행함으로써, 제어 학습 모델의 제어에 따른 출력값이 베이스 라인을 추종하고 제2 베이스 라인을 회피하는 최적의 파라미터를 획득할 수 있다.
이와 같이 본 발명은 복수의 베이스 라인(520, 910)을 설정함으로써, 인공지능이 다양한 목표에 기반하여 강화 학습을 수행하도록 할 수 있다.
구체적으로 베이스 라인(520)만이 존재한다고 가정하는 경우, 출력값이 베이스 라인(520)을 가장 가깝게 추종하는 최적의 파라미터는 베이스 라인(520)과 출력값(810) 사이의 갭의 평균(즉, 출력값과 베이스 라인 사이의 공간의 면적)에 의해 결정된다. 따라서 갭의 평균이 최소화 되더라도 큰 오버슛이 발생할 수 있으며, 오버슛에 따라 출력값(810)이 사용자에게 불쾌감을 유발하는 특정 온도에 접근할 수도 있다.
따라서 본 발명은 복수의 베이스 라인(520, 910)을 설정하고, 출력값이 베이스 라인을 추종 또는 회피하는 최적의 파라미터를 인공지능이 학습하게 함으로써, 다양한 목표를 달성할 수 있는 최적의 파라미터를 산출할 수 있는 장점이 있다.
한편 앞선 설명에서는 두개의 베이스 라인(520, 910)을 설정하는 것으로 설명하였으나 베이스 라인의 개수는 한정되지 않는다.
예를 들어 공조 시스템에서, 베이스 라인(520), 제2 베이스 라인(910) 및 제3 베이스 라인(920)이 설정될 수 있다. 여기서 베이스 라인(520)은 출력값(출력 온도)가 추종하여야 하는 온도, 제2 베이스 라인(910)은 출력값(출력 온도)이 회피해야 하는 높은 온도(예를 들어 40도), 제3 베이스 라인(920)은 출력값(출력 온도)이 회피해야 하는 낮은 온도(예를 들어 15도)를 의미할 수 있다. 이에 따라 프로세서(180)는 공조 시스템의 제어에 따른 온도가 15도 내지 40도의 범위에서 베이스 라인을 추종하는 최적의 파라미터를 산출할 수 있다.
한편, 베이스 라인(520)과 출력값(810) 사이의 갭(G31, G32)이 작을수록 높은 보상(reward)이 부여되고, 제2 베이스 라인(910)과 출력값(810) 사이의 갭(G33, G34)이 작을수록 높은 벌점(penalty)이 부여되며, 이 경우 벌점(penalty)의 크기는 보상(reward)의 크기보다 클 수 있다.
예를 들어 베이스 라인(520)과 출력값(810) 사이의 갭이 10이고, 제2 베이스 라인(910)과 출력값(810) 사이의 갭이 10인 경우, 베이스 라인(520)과 출력값(810) 사이의 갭에는 5의 보상이, 제2 베이스 라인(910)과 출력값(810) 사이의 갭에는 10의 벌점이 부여될 수 있다.
제2 베이스 라인이 나타내는 특정 온도는 출력값이 넘어서는 안되는 한계점일 수 있다. 따라서 본 발명은 보상과 벌점의 크기를 상이하게 함으로써, 베이스 라인(520)을 추종하는 동작 목표보다 제2 베이스 라인(910)이 나타내는 특정 온도를 회피하는 동작 목표에 더 높은 가중치를 부여할 수 있다.
도 15은 본 발명의 실시예에 따른, 출력값과 제2 베이스 라인 상의 일 지점이 일치하는 경우, 파라미터를 폐기하는 방법을 설명하기 위한 도면이다.
출력값(1010)이 베이스 라인(520)을 추종하고 제2 베이스 라인(910)을 회피하는 것을 목표로 강화 학습을 수행하더라도, 출력값(1010)이 제2 베이스 라인(910)에 접근할 가능성은 여전히 존재하며, 출력값(1010)이 제2 베이스 라인(910)에 닿을 수도 있다.
한편 제2 베이스 라인이 나타내는 값은 출력값(1010)이 넘어서는 안되는 한계점일 수 있다.
따라서 프로세서(180)는 출력값이 제2 베이스 라인(910) 상의 일 지점(1011)과 일치하는 경우, 제어 학습 모델에 제어값을 제공한 제어 함수의 파라미터를 폐기할 수 있다. 그리고 프로세서(180)는 폐기되는 파라미터를 제어 함수의 파라미터로써 사용하지 않을 수 있다.
도 16은 본 발명의 실시예에 따른, 환경 조건의 변화에 따라 베이스 라인을 재 설정하는 방법을 설명하기 위한 도면이다.
프로세서(180)는 환경 조건의 변화에 따라 베이스 라인을 재 설정할 수 있다.
여기서 환경 조건은, 제어 학습 모델의 제어 대상을 변경시키는 외부 요인일 수 있다. 다시 말해서 제어 학습 모델의 제어 대상은 제어 학습 모델의 제어에 의해서가 아니라 제어 학습 모델의 제어 이외의 다른 요인으로도 변경될 수 있는데, 상기 다른 요인을 환경 조건이라 지칭할 수 있다.
예를 들어 제어 학습 모델이 난방 시스템인 경우, 난방 시스템의 제어 대상은 온도이다. 그리고 온도는 난방 시스템의 제어뿐만이 아니라, 시간, 날짜, 계절, 날씨 등에 의해서도 변경될 수 있다. 이 경우 환경 조건은 시간, 날짜, 계절, 날씨 등일 수 있다.
앞서, 베이스 라인(520)의 제1 라인(521)은 제어 학습 모델의 제어에 따른 출력값의 이상적인 변화를 나타내는 것으로써, 제어 학습 모델의 최대 제어에 따른 출력값의 변화를 의미하는 것으로 설명한 바 있다.
한편 제어 학습 모델의 제어에 따른 출력값의 이상적인 변화는 환경 조건의 변화에 따라 달라질 수 있다.
예를 들어 난방 시스템에서 밸브를 동일 크기만큼 개방하더라도, 여름철의 출력값(온도)의 변화율과 겨울철의 출력값(온도)의 변화율은 서로 상이할 수 있다.
따라서 여름철에 제어 학습 모델의 최대 제어에 따른 출력값의 변화를 베이스 라인(521)으로 설정한 후 강화 학습을 수행하여 최적의 파라미터를 산출하더라도, 산출한 최적의 파라미터는 겨울철에 적용되는 최적의 파라미터가 아닐 수 있다.
따라서 본 발명의 실시예에 따른 프로세서(180)는 환경 조건의 변화에 따라 베이스 라인(520)을 재 설정 할 수 있다.
구체적으로 수집부(340)는 출력값을 직접 획득하거나, 외부로부터 수신할 수 있다.
그리고 프로세서(180)는 출력값의 변화를 감지할 수 있다. 이 경우 출력값의 변화는, 제어 학습 모델의 제어에 따른 출력값의 변화가 아닌, 제어 학습 모델의 제어와는 무관한 출력값의 변화를 의미할 수 있다.
그리고 출력값의 변화가 감지되면, 프로세서(180)는 제어 학습 모델이 최대 제어를 수행하도록 제어 학습 모델을 제어할 수 있다.
그리고 제어 학습 모델이 최대 제어를 수행하는 중, 프로세서(180)는 제어 학습 모델의 최대 제어에 따른 출력값을 획득할 수 있다. 그리고 프로세서(180)는 획득한 출력값에 기초하여 새로운 베이스 라인(1030)의 제1 라인(1031)을 설정할 수 있다.
그리고 새로운 베이스 라인(1030)의 제1 라인(1031)이 설정되면, 프로세서(180)는 제어 학습 모델의 제어에 따른 출력값이 새로운 베이스 라인(1030)을 추종하는 것을 목표로 강화 학습을 수행할 수 있다;
도 16에서 도시한 제1 출력값(1040)은 기존의 베이스 라인(520)을 추종하는 것을 목표로 강화 학습을 수행하여 최적의 제어 함수를 획득하고, 획득한 제어 함수에서 제공한 제어 값으로 제어한 경우의 출력값을 나타낸다.
또한 도 16에서 도시한 제2 출력값(1050)은 새로운 베이스 라인(1030)을 추종하는 것을 목표로 강화 학습을 수행하여 최적의 제어 함수를 획득하고, 획득한 제어 함수에서 제공한 제어 값으로 제어한 경우의 출력값을 나타낸다.
계절, 날짜, 기타 변수 들이 작용하여 환경 조건이 변경되면서, 현재 환경 조건에 맞는 최적의 PID 파라미터는 달라질 수 있다. 다만 종래에는 인간의 직관과 경험으로 파라미터를 설정하였기 때문에, 이러한 환경 조건의 변경에 대하여 적절히 대응하여 파라미터를 최적화 할 수 없다는 문제가 있었다.
다만 본 발명은 환경 조건의 변화가 있는 경우 베이스 라인을 변경하고, 변경된 베이스 라인을 추종하는 것을 목표로 강화 학습을 다시 수행함으로써, 환경 조건의 변화에 대응하여 파라미터를 최적화 할 수 있는 장점이 있다.
도 17는 본 발명의 실시예에 따른, 인공지능 장치가 제어 센터에 통합적으로 구성되는 실시예를 설명하기 위한 블록도이다.
일례로써, 제어 센터(1500)는 특정 건물의 난방 시스템들을 통합 관리하는 장치일 수 있다. 그리고 제1 공조장치(1600)은 특정 건물 내 제1 공간의 난방을 제어하는 제어 장치일 수 있으며, 제2 공조장치(1700)은 특정 건물 내 제2 공간의 난방을 제어하는 제어 장치일 수 있다.
제1 공조장치(1600)은 제어부, 구동부, 통신부 및 센싱부를 포함할 수 있다. 통신부가 제어 센터(1500)와 통신하는 것 외에는, 도 12에서의 제어부, 구동부, 통신부 및 센싱부에 대한 설명이 그대로 적용될 수 있다.
또한 제2 공조장치(1700)은 제어부, 구동부, 통신부 및 센싱부를 포함할 수 있다. 통신부가 제어 센터(1500)와 통신하는 것 외에는, 도 12에서의 제어부, 구동부, 통신부 및 센싱부에 대한 설명이 그대로 적용될 수 있다.
한편 제어 센터(1500)는 수집부 및 인공지능부를 포함할 수 있다. 인공지능부는 에너지 밸런스 학습 모델(310) 및 제어 학습 모델(320)을 포함할 수 있다.
제어 센터(1500)의 수집부 및 인공지능부에는 도 12에서의 수집부 및 인공지능부에 대한 설명이 그대로 적용될 수 있다.
한편 제어 센터(1500)의 인공지능부는 제1 공조장치(1600)의 제어에 따른 출력값을 제1 공조장치(1600)으로부터 수신하고, 강화 학습을 기반으로 제1 공조장치(1600)에 제어값을 제공하는 제1 제어 함수를 업데이트 할 수 있다.
또한 제어 센터(1500)의 인공지능부는 제2 공조장치(1700)의 제어에 따른 출력값을 제2 공조장치(1700)으로부터 수신하고, 강화 학습을 기반으로 제2 공조장치(1700)에 제어값을 제공하는 제2 제어 함수를 업데이트 할 수 있다.
또한 제어 센터(1500)의 인공지능부는 제2 공조장치(1700)에서 획득된 환경 조건을 이용하여 제1 공조장치(1600)의 베이스 라인을 재 설정할 수 있다.
예를 들어, 제2 공조장치(1700)의 센싱부에서의 감지 결과에 따라 환경 조건의 변화가 감지된 경우, 제어 센터(1500)의 인공지능부는 제1 공조장치(1600)의 베이스 라인을 재 설정할 수 있다.
즉 제2 공조장치(1700)에서 획득한 센싱 정보를 제1 공조장치(1600)의 제어함수의 업데이트에 이용할 수 있다.
한편 상술한 설명에서는 PID를 제어 함수의 예로 들어 설명하였으나 이에 한정되지 않는다.
예를 들어 제어 함수는 PI 제어(Proportional-Integral control), PD 제어(Proportional-Derivative control) 및 PID 제어(Proportional-Integral-Derivative control) 중 하나를 포함할 수 있다.
이 외에도 제어 함수는, 피드백 제어를 수행하기 위하여 제어 학습 모델에 제어값을 제공하는 모든 유형의 함수를 포함할 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 실시예의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 실시예의 등가적 범위 내에서의 모든 변경은 실시예의 범위에 포함된다.

Claims (16)

  1. 제1 온도 관련 데이터에 기초하여 업데이트되는 제1 하이퍼파라미터에 따른 제1 예측 온도값을 획득하도록 제1 학습 모델을 학습하는 단계;
    상기 획득된 제1 예측 온도값에 기초하여 제1 제어값을 획득하도록 제2 학습 모델을 학습하는 단계;
    상기 획득된 제1 제어값에 따라 공조장치를 동작하도록 제어하는 단계;
    상기 공조장치를 동작함으로써, 제2 온도 관련 데이터를 획득하는 단계;
    상기 획득된 제2 온도 관련 데이터에 기초하여 업데이트되는 제2 하이퍼파라미터에 따른 제2 예측 온도값을 획득하도록 상기 제1 학습 모델을 학습하는 단계;
    상기 획득된 제2 예측 온도값에 기초하여 제2 제어값을 획득하도록 상기 제2 학습 모델을 학습하는 단계; 및
    상기 획득된 제2 제어값에 따라 상기 공조장치를 동작하도록 제어하는 단계를 포함하는 공조시스템의 제어 방법.
  2. 제1항에 있어서,
    상기 제1 온도 관련 데이터는 상기 제1 학습 모델을 학습하기 전에 상기 공조장치를 일정 기간 동작시켜 수집되는 공조시스템의 제어 방법.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 제1 하이퍼파라미터는 유량, 공기의 비열, 전도하는 벽면의 면적 및 외기의 온도 중 적어도 2개 이상을 포함하는 공조시스템의 제어 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 제2 학습 모델을 학습하는 단계는,
    상기 제1 예측 온도값 또는 상기 제2 예측 온도값에 기초하여 제어 파라미터를 업데이트하는 단계; 및
    상기 업데이트된 제어 파라미터에 기반하여 상기 제2 학습 모델을 학습하여 최적의 제어값을 획득하는 단계
    를 포함하는 공조시스템의 제어 방법.
  8. 제1항에 있어서,
    상기 제1 학습 모델을 학습하는 단계는,
    상기 제2 예측 온도값과 실제 온도값의 차이가 최소가 되도록 상기 제2 하이퍼파라미터를 반복적으로 업데이트하는 단계; 및
    상기 반복적으로 업데이트된 제2 하이퍼파라미터에 기반하여 상기 제1 학습 모델을 학습하여 최적의 예측 온도값을 획득하는 단계
    를 포함하는 공조시스템의 제어 방법.
  9. 공조장치;
    제1 학습 모델 및 제2 학습 모델을 저장하는 메모리; 및
    프로세서를 포함하고,
    상기 프로세서는,
    제1 온도 관련 데이터에 기초하여 업데이트되는 제1 하이퍼파라미터에 따른 제1 예측 온도값을 획득하도록 상기 제1 학습 모델을 학습하고,
    상기 획득된 제1 예측 온도값에 기초하여 제1 제어값을 획득하도록 상기 제2 학습 모델을 학습하며,
    상기 획득된 제1 제어값에 따라 상기 공조장치를 동작하도록 제어하고,
    상기 프로세서는,
    상기 공조장치를 동작함으로써, 제2 온도 관련 데이터를 획득하고,
    상기 획득된 제2 온도 관련 데이터에 기초하여 업데이트되는 제2 하이퍼파라미터에 따른 제2 예측 온도값을 획득하도록 상기 제1 학습 모델을 학습하고,
    상기 획득된 제2 예측 온도값에 기초하여 제2 제어값을 획득하도록 상기 제2 학습 모델을 학습하며,
    상기 획득된 제2 제어값에 따라 상기 공조장치를 동작하도록 제어하는
    공조시스템.
  10. 제9항에 있어서,
    수집부를 더 포함하고,
    상기 프로세서는,
    상기 공조장치를 일정 기간 동작시키고,
    상기 수집부는,
    상기 공조장치의 동작 후에 상기 제1 온도 관련 데이터를 일정 기간 수집하는 공조시스템.
  11. 삭제
  12. 삭제
  13. 제9항에 있어서,
    상기 제1 하이퍼파라미터는 유량, 공기의 비열, 전도하는 벽면의 면적 및 외기의 온도 중 적어도 2개 이상을 포함하는 공조시스템.
  14. 삭제
  15. 제9항에 있어서,
    상기 프로세서는,
    상기 제1 예측 온도값 또는 상기 제2 예측 온도값에 기초하여 제어 파라미터를 업데이트하며,
    상기 업데이트된 제어 파라미터에 기반하여 상기 제2 학습 모델을 학습하여 최적의 제어값을 획득하는
    공조시스템.
  16. 제9항에 있어서,
    상기 프로세서는,
    상기 제2 예측 온도값과 실제 온도값의 차이가 최소가 되도록 상기 제2 하이퍼파라미터를 반복적으로 업데이트하며,
    상기 반복적으로 업데이트된 제2 하이퍼파라미터에 기반하여 상기 제1 학습 모델을 학습하여 최적의 예측 온도값을 획득하는
    공조시스템.
KR1020190102785A 2019-08-22 2019-08-22 공조시스템 및 그 제어 방법 KR102267180B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190102785A KR102267180B1 (ko) 2019-08-22 2019-08-22 공조시스템 및 그 제어 방법
US16/556,153 US20200041160A1 (en) 2019-08-22 2019-08-29 Air conditioning system and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190102785A KR102267180B1 (ko) 2019-08-22 2019-08-22 공조시스템 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20190104926A KR20190104926A (ko) 2019-09-11
KR102267180B1 true KR102267180B1 (ko) 2021-06-22

Family

ID=67949366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190102785A KR102267180B1 (ko) 2019-08-22 2019-08-22 공조시스템 및 그 제어 방법

Country Status (2)

Country Link
US (1) US20200041160A1 (ko)
KR (1) KR102267180B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102323033B1 (ko) * 2019-11-19 2021-11-10 한국에너지기술연구원 기계 학습 기반 에너지 자동 제어 장치 및 그 방법
JP7331660B2 (ja) * 2019-11-26 2023-08-23 横河電機株式会社 装置、方法およびプログラム
US11631462B2 (en) * 2020-02-10 2023-04-18 International Business Machines Corporation Temperature assisted programming of flash memory for neuromorphic computing
JP7484382B2 (ja) 2020-04-24 2024-05-16 横河電機株式会社 制御装置、制御方法および制御プログラム
KR20220023007A (ko) * 2020-08-20 2022-03-02 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102520715B1 (ko) * 2021-11-17 2023-04-10 연세대학교 산학협력단 실내외 환경 변화 예측을 이용한 냉난방 자동 제어 방법 및 장치
FR3134901A1 (fr) * 2022-04-26 2023-10-27 Valeo Vision Modèle prédictif issu d’un apprentissage machine pour la prédiction de température d’un équipement
KR102515423B1 (ko) * 2022-07-26 2023-03-29 한국산업기술시험원 기존 제품의 사용경험지식과 신규 제품에 대한 소규모 측정데이터의 전이학습을 이용한 신규 히트펌프 성능 예측 시스템 및 그 방법
CN116149402B (zh) * 2023-04-23 2023-07-28 中建西南咨询顾问有限公司 一种基于卷积神经网络的温度控制系统与控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141499A (ja) 2001-11-05 2003-05-16 Denso Corp ニューラルネットワーク学習方法
JP2014009939A (ja) 2012-06-29 2014-01-20 Mitsubishi Electric Corp 建物のゾーンのための環境制御システムを動作させる方法
WO2016185630A1 (ja) 2015-05-18 2016-11-24 三菱電機株式会社 室内環境モデル作成装置
JP2019015486A (ja) 2017-07-11 2019-01-31 アズビル株式会社 Vavシステムおよび空調制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0658595A (ja) * 1992-08-05 1994-03-01 Sharp Corp 空気調和機
WO2020218632A1 (ko) * 2019-04-23 2020-10-29 엘지전자 주식회사 인공지능 장치
WO2020246631A1 (ko) * 2019-06-04 2020-12-10 엘지전자 주식회사 온도 예측 모델의 생성 장치 및 시뮬레이션 환경의 제공 방법
WO2021006368A1 (ko) * 2019-07-05 2021-01-14 엘지전자 주식회사 인공지능 기반의 에너지 사용량 예측 장치 및 예측 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141499A (ja) 2001-11-05 2003-05-16 Denso Corp ニューラルネットワーク学習方法
JP2014009939A (ja) 2012-06-29 2014-01-20 Mitsubishi Electric Corp 建物のゾーンのための環境制御システムを動作させる方法
WO2016185630A1 (ja) 2015-05-18 2016-11-24 三菱電機株式会社 室内環境モデル作成装置
JP2019015486A (ja) 2017-07-11 2019-01-31 アズビル株式会社 Vavシステムおよび空調制御方法

Also Published As

Publication number Publication date
US20200041160A1 (en) 2020-02-06
KR20190104926A (ko) 2019-09-11

Similar Documents

Publication Publication Date Title
KR102267180B1 (ko) 공조시스템 및 그 제어 방법
US11568310B2 (en) Apparatus for generating temperature prediction model and method for providing simulation environment
KR101988504B1 (ko) 딥러닝에 의해 생성된 가상환경을 이용한 강화학습 방법
KR102553299B1 (ko) 데이터 학습 서버 및 이의 학습 모델 생성 및 이용 방법
US20210056384A1 (en) Apparatus for generating temperature prediction model and method for providing simulation environment
KR20190140810A (ko) 목표 온도를 기반으로 하는 빌딩의 열·공조 시스템에 대한 공급 전력 제어 방법 및 장치
CN103235620A (zh) 基于全局变量预测模型的温室环境智能控制方法
KR20210078258A (ko) 공기 조화기 및 공기 조화기를 제어하기 위한 방법
KR20210055992A (ko) 인공지능 모델 관리 방법 및 장치
US20220268479A1 (en) Hvac system using interconnected neural networks and online learning and operation method thereof
CN116974320B (zh) 一种档案智慧管理调控方法及集成控制系统
CN113821903A (zh) 温度控制方法和设备、模块化数据中心及存储介质
KR101959886B1 (ko) 온실의 구동기의 파라미터를 결정하는 서버 및 방법
JP7378497B2 (ja) モデル共有システム、モデル管理装置、および空気調和装置の制御装置
Avila-Miranda et al. An optimal and intelligent control strategy to ventilate a greenhouse
US11662696B2 (en) Automatic control artificial intelligence device and method for update control function
KR20200010972A (ko) 자동 제어 인공지능 장치 및 제어 함수의 업데이트 방법
CN114387503A (zh) 用于使用元学习初始化进行对抗性训练的方法和系统
Xu Learning Efficient Dynamic Controller for HVAC System
CN113625557A (zh) 一种在线优化模型的hvac系统模型预测控制方法
Jin et al. Personalized Control of Indoor Air Temperature Based on Deep Learning
JP2021056893A (ja) 機械学習装置、及び、空調制御システム
Zhao et al. Control and optimization of indoor environmental quality based on model prediction in building
CN117469774B (zh) 空调系统调控方法、装置、电子设备及存储介质
El Aoud et al. Self-tuning method of fuzzy system: An application on greenhouse process

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early opening
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant