KR20200069212A - 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법 - Google Patents

예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법 Download PDF

Info

Publication number
KR20200069212A
KR20200069212A KR1020190124616A KR20190124616A KR20200069212A KR 20200069212 A KR20200069212 A KR 20200069212A KR 1020190124616 A KR1020190124616 A KR 1020190124616A KR 20190124616 A KR20190124616 A KR 20190124616A KR 20200069212 A KR20200069212 A KR 20200069212A
Authority
KR
South Korea
Prior art keywords
prediction
item
result
weight
weights
Prior art date
Application number
KR1020190124616A
Other languages
English (en)
Other versions
KR102557001B1 (ko
Inventor
임명은
최재훈
한영웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/699,060 priority Critical patent/US11941513B2/en
Publication of KR20200069212A publication Critical patent/KR20200069212A/ko
Application granted granted Critical
Publication of KR102557001B1 publication Critical patent/KR102557001B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본 발명은 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법에 관한 것이다. 본 발명의 실시예에 따른 장치는 데이터 관리기, 학습기, 및 예측기를 포함한다. 데이터 관리기는 제1 예측 장치로부터 제1 장치 예측 결과를 수신하고, 제2 예측 장치로부터 제2 장치 예측 결과를 수신한다. 학습기는 제1 장치 예측 결과 및 제2 장치 예측 결과에 기초하여, 제1 항목 가중치들, 제2 항목 가중치들, 제1 장치 가중치, 및 제2 장치 가중치를 생성하기 위한 예측 모델의 가중치 그룹을 조절할 수 있다. 제1 항목 가중치들은 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하고, 제2 항목 가중치들은 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존한다. 제1 장치 가중치는 제1 예측 장치에 대응되고, 제2 장치 가중치는 제2 예측 장치에 대응된다. 예측기는 가중치 제1 및 제2 항목 가중치들 및 제1 및 제2 장치 가중치들에 기초하여 제1 및 제2 장치 예측 결과들의 앙상블 결과를 생성한다.

Description

예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법{DEVICE FOR ENSEMBLING DATA RECEIVED FROM PREDICTION DEVICES AND OPERATING METHOD THEREOF}
본 발명은 데이터의 처리에 관한 것으로, 좀 더 구체적으로 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법에 관한 것이다.
건강한 삶을 영위하기 위하여, 현재의 질병을 치료하는 것에서 나아가 미래의 건강 상태를 예측하기 위한 요구가 제기되고 있다. 미래의 건강 상태를 예측하기 위하여, 빅데이터를 분석하여 질병을 진단하거나 미래의 질병 위험도를 예측하고자 하는 수요가 증가하고 있다. 산업 기술과 정보 통신 기술의 발달은 빅데이터의 구축을 지원하고 있다. 그리고, 이러한 빅데이터를 이용하여, 컴퓨터와 같은 전자 장치를 학습시켜, 다양한 서비스를 제공하는 인공 지능과 같은 기술이 대두되고 있다. 특히, 미래의 건강 상태를 예측하기 위하여, 다양한 의료 데이터 또는 건강 데이터 등을 이용한 학습 모델을 구축하는 방안이 제안되고 있다.
정확한 예측을 위해서는 데이터의 규모가 클수록 유리하지만, 윤리적 문제, 법적 문제, 개인 프라이버시 문제 등 다양한 원인으로, 다양한 의료 기관들끼리의 데이터 공유가 어려울 수 있다. 이로 인하여, 하나로 통합된 의료 데이터의 빅데이터 구축은 사실상 어려운 실정이다. 이러한 의료 데이터 특유의 문제점에 대한 방안으로, 다양한 의료 기관들에서 개별적으로 구축된 데이터로 개별 예측 모델을 학습하고, 이들의 예측 결과를 환자의 미래 건강 상태의 예측에 활용하는 방안이 모색되고 있다.
본 발명은 미래의 건강 상태 예측의 신뢰성, 정확성, 및 효율성을 확보할 수 있도록, 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법을 제공할 수 있다.
본 발명의 실시예에 따른 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치는, 데이터 관리기 및 학습기를 포함한다. 데이터 관리기는 원시 학습 데이터를 제1 예측 장치 및 제2 예측 장치에 제공하고, 제1 예측 장치로부터 원시 학습 데이터에 대응되는 제1 장치 예측 결과를 수신하고, 제2 예측 장치로부터 원시 학습 데이터에 대응되는 제2 장치 예측 결과를 수신한다. 학습기는 제1 장치 예측 결과 및 제2 장치 예측 결과에 기초하여, 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들, 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들, 제1 예측 장치에 대응되는 제1 장치 가중치, 및 제2 예측 장치에 대응되는 제2 장치 가중치를 생성하기 위한 예측 모델의 가중치 그룹을 조절한다. 가중치 그룹은 제1 항목 가중치들을 생성하기 위한 제1 파라미터, 제2 항목 가중치들을 생성하기 위한 제2 파라미터, 및 제1 및 제2 장치 가중치들을 생성하기 위한 제3 파라미터를 포함한다.
일례로, 학습기는 항목 가중치 계산기, 장치 가중치 계산기, 가중치 적용기, 및 가중치 제어기를 포함할 수 있다. 항목 가중치 계산기는 제1 항목 값들 및 제1 파라미터에 기초하여 제1 항목 가중치들을 계산하고, 제2 항목 값들 및 제2 파라미터에 기초하여 제2 항목 가중치들을 계산할 수 있다. 장치 가중치 계산기는 제1 및 제2 장치 예측 결과들 및 제3 파라미터에 기초하여 제1 및 제2 장치 가중치들을 계산할 수 있다. 가중치 적용기는 제1 장치 예측 결과에 제1 및 제2 항목 가중치들 및 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 제2 장치 예측 결과에 제1 및 제2 항목 가중치들 및 제2 장치 가중치를 적용하여 제2 결과를 생성할 수 있다. 가중치 제어기는 제1 및 제2 결과들에 기초하여, 제1 파라미터, 제2 파라미터, 및 제3 파라미터를 조절할 수 있다.
일레로, 학습기는 제1 및 제2 장치 예측 결과들의 제1 항목 값들을 그룹화하여 항목 가중치 계산기로 출력하고, 제1 및 제2 장치 예측 결과들의 제2 항목 값들을 그룹화하여 항목 가중치 계산기로 출력하는 항목 분류기를 더 포함할 수 있다.
일례로, 가중치 그룹은 제1 결과 또는 제2 결과와 동일한 차원을 갖는 앙상블 결과를 생성하기 위한 제4 파라미터를 더 포함할 수 있다. 학습기는 제1 및 제2 결과들 및 제4 파라미터에 기초하여, 앙상블 결과를 생성하는 결과 계산기를 더 포함할 수 있다. 가중치 제어기는 앙상블 결과에 기초하여 제1 내지 제4 파라미터들을 조절할 수 있다. 가중치 제어기는 앙상블 결과가 기설정된 비교 결과로부터 기준 오차 이내일 때까지 제1 내지 제4 파라미터들을 조절할 수 있다.
일례로, 학습기는 항목 가중치 계산기, 항목 가중치 적용기, 장치 가중치 계산기, 장치 가중치 적용기, 및 가중치 제어기를 포함할 수 있다. 항목 가중치 계산기는 제1 항목 값들 및 제1 파라미터에 기초하여 제1 항목 가중치들을 계산하고, 제2 항목 값들 및 제2 파라미터에 기초하여 제2 항목 가중치들을 계산할 수 있다. 항목 가중치 적용기는 제1 항목 값들에 상기 제1 항목 가중치들을 적용하고, 제2 항목 값들에 제2 항목 가중치들을 적용하여 중간 결과를 생성할 수 있다. 장치 가중치 계산기는 중간 결과 및 제3 파라미터에 기초하여 제1 및 제2 장치 가중치들을 계산할 수 있다. 장치 가중치 적용기는 중간 결과 중 제1 장치 예측 결과에 대응되는 값에 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 중간 결과 중 제2 장치 예측 결과에 대응되는 값에 제2 장치 가중치를 적용하여 제2 결과를 생성할 수 있다. 가중치 제어기는 제1 및 제2 결과들에 기초하여, 제1 파라미터, 제2 파라미터, 및 제3 파라미터를 조절할 수 있다.
일례로, 가중치 그룹은 제1 결과 또는 제2 결과와 동일한 차원을 갖는 앙상블 결과를 생성하기 위한 제4 파라미터를 더 포함할 수 있다. 학습기는 제1 및 제2 결과들 및 제4 파라미터에 기초하여, 앙상블 결과를 생성하는 결과 계산기를 더 포함할 수 있다. 가중치 제어기는 앙상블 결과에 기초하여 제1 내지 제4 파라미터들을 조절할 수 있다.
일례로, 데이터 관리기는 제1 예측 장치로부터 제1 장치 예측 결과를 생성하기 위한 제1 예측 모델의 제1 상태 정보를 더 수신하고, 제2 예측 장치로부터 제2 장치 예측 결과를 생성하기 위한 제2 예측 모델의 제2 상태 정보를 더 수신할 수 있다. 학습기는 제1 상태 정보 및 제2 상태 정보에 더 기초하여 가중치 그룹을 조절할 수 있다. 일례로, 데이터 관리기 또는 학습기는, 제1 상태 정보의 차원을 제1 예측 결과의 차원과 동일하게 변환하고, 제2 상태 정보의 차원을 제2 예측 결과의 차원과 동일하게 변환할 수 있다.
일례로, 데이터 관리기는 제1 예측 장치로부터 제1 장치 예측 결과를 생성하기 위한 제1 상태 정보를 더 수신할 수 있다. 데이터 관리기 또는 학습기는, 제2 장치 예측 결과에 기초하여 제2 예측 장치에 대응되는 제2 상태 정보를 생성할 수 있다. 학습기는 제1 상태 정보 및 제2 상태 정보에 더 기초하여 가중치 그룹을 조절할 수 있다. 일례로, 데이터 관리기 또는 학습기는, 제1 상태 정보에 기초하여 제1 장치 예측 결과에 대응되는 제1 마스크 정보를 생성하고, 제2 상태 정보에 기초하여 제2 장치 예측 결과에 대응되는 제2 마스크 정보를 생성할 수 있다. 학습기는 제1 마스크 정보 및 제2 마스크 정보에 더 기초하여 가중치 그룹을 조절할 수 있다.
일례로, 데이터 관리기는 제1 예측 장치로부터 제1 장치 예측 결과를 생성하기 위한 상태 정보를 더 수신할 수 있다. 학습기는 상태 정보 및 제1 장치 예측 결과에 기초하여 제1 중간 항목 가중치들을 계산하고, 제2 장치 예측 결과에 기초하여 제2 중간 항목 가중치들을 계산하고, 제1 및 제2 중간 항목 가중치들을 병합하여 제1 및 제2 항목 가중치들을 생성할 수 있다.
본 발명의 실시예에 따른 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치는, 데이터 관리기 및 예측기를 포함한다. 데이터 관리기는 시계열 데이터를 제1 예측 장치 및 제2 예측 장치에 제공하고, 제1 예측 장치로부터 시계열 데이터에 대응되는 제1 장치 예측 결과를 수신하고, 제2 예측 장치로부터 시계열 데이터에 대응되는 제2 장치 예측 결과를 수신한다. 예측기는 제1 장치 예측 결과 및 제2 장치 예측 결과에 기초하여, 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들, 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들, 제1 예측 장치에 대응되는 제1 장치 가중치, 및 제2 예측 장치에 대응되는 제2 장치 가중치를 생성한다. 예측기는 제1 및 제2 항목 가중치들 및 제1 및 제2 장치 가중치들에 기초하여 제1 및 제2 장치 예측 결과들의 앙상블 결과를 생성한다.
일례로, 상기 장치는 제1 항목 가중치들을 생성하기 위한 제1 파라미터, 제2 항목 가중치들을 생성하기 위한 제2 파라미터, 및 제1 및 제2 장치 가중치들을 생성하기 위한 제3 파라미터를 포함하는 예측 모델의 가중치 그룹이 저장되는 스토리지를 더 포함할 수 있다. 예측기는 제1 항목 값들 및 제1 파라미터에 기초하여 제1 항목 가중치들을 계산하고, 제2 항목 값들 및 제2 파라미터에 기초하여 제2 항목 가중치들을 계산하고, 제1 및 제2 장치 예측 결과들 및 제3 파라미터에 기초하여 제1 및 제2 장치 가중치들을 계산할 수 있다.
일례로, 예측기는 전처리기, 항목 가중치 계산기, 및 장치 가중치 계산기를 포함할 수 있다. 전처리기는 제1 및 제2 장치 예측 결과들의 제1 및 제2 항목 값들을 전처리할 수 있다. 항목 가중치 계산기는 전처리된 제1 항목 값들에 기초하여 제1 항목 가중치들을 계산하고, 전처리된 제2 항목 값들에 기초하여 제2 항목 가중치들을 계산할 수 있다. 장치 가중치 계산기는 전처리된 제1 및 제2 장치 예측 결과들에 기초하여 제1 및 제2 장치 가중치들을 계산할 수 있다.
일례로, 예측기는 전처리기, 항목 가중치 계산기, 항목 가중치 적용기, 장치 가중치 적용기, 및 결과 계산기를 포함할 수 있다. 전처리기는 제1 및 제2 장치 예측 결과들의 제1 및 제2 항목 값들을 전처리할 수 있다. 항목 가중치 계산기는 전처리된 제1 항목 값들에 기초하여 제1 항목 가중치들을 계산하고, 전처리된 제2 항목 값들에 기초하여 제2 항목 가중치들을 계산할 수 있다. 항목 가중치 적용기는 전처리된 제1 항목 값들에 제1 항목 가중치들을 적용하고, 전처리된 제2 항목 값들에 제2 항목 가중치들을 적용하여 중간 결과를 생성할 수 있다. 장치 가중치 계산기는 중간 결과에 기초하여 제1 및 제2 장치 가중치들을 계산할 수 있다. 장치 가중치 적용기는 중간 결과 중 제1 장치 예측 결과에 대응되는 값에 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 중간 결과 중 제2 장치 예측 결과에 대응되는 값에 제2 장치 가중치를 적용하여 제2 결과를 생성할 수 있다. 결과 계산기는 제1 및 제2 결과들에 기초하여 제1 결과 또는 제2 결과와 동일한 차원을 갖는 앙상블 결과를 생성할 수 있다.
일례로, 데이터 관리기는 제1 예측 장치로부터 제1 장치 예측 결과를 생성하기 위한 제1 예측 모델의 제1 상태 정보를 더 수신하고, 제2 예측 장치로부터 제2 장치 예측 결과를 생성하기 위한 제2 예측 모델의 제2 상태 정보를 더 수신할 수 있다. 예측기는 제1 상태 정보 및 제2 상태 정보에 더 기초하여 앙상블 결과를 생성할 수 있다.
본 발명의 실시예에 따른 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치의 동작 방법은, 시계열 데이터 및 예측 요청을 제1 예측 장치 및 제2 예측 장치에 제공하는 단계, 제1 예측 장치로부터 예측 요청에 응답한 시계열 데이터의 제1 장치 예측 결과를 수신하는 단계, 제2 예측 장치로부터 예측 요청에 응답한 시계열 데이터의 제2 장치 예측 결과를 수신하는 단계, 제1 및 제2 장치 예측 결과들을 전처리하는 단계, 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들을 생성하는 단계, 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들을 생성하는 단계, 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 제1 예측 장치에 대응되는 제1 장치 가중치 및 제2 예측 장치에 대응되는 제2 장치 가중치를 생성하는 단계, 전처리된 제1 장치 예측 결과에 제1 및 제2 항목 가중치들 및 제1 장치 가중치를 적용하여 제1 결과를 생성하는 단계, 전처리된 제2 장치 예측 결과에 제1 및 제2 항목 가중치들 및 제2 장치 가중치를 적용하여 제2 결과를 생성하는 단계, 및 제1 결과 및 제2 결과에 기초하여 앙상블 결과를 생성하는 단계를 포함한다.
일례로, 상기 방법은 앙상블 결과에 기초하여, 제1 및 제2 항목 가중치들 및 제1 및 제2 장치 가중치들을 생성하기 위한 파라미터를 조절하는 단계를 더 포함할 수 있다.
일례로, 제1 결과를 생성하는 단계는, 전처리된 제1 장치 예측 결과의 제1 항목 값, 제1 항목 가중치들 중 제1 장치 예측 결과에 대응되는 제1 항목 가중치, 및 제1 장치 가중치를 곱하는 단계, 및 전처리된 제1 장치 예측 결과의 제2 항목 값, 제2 항목 가중치들 중 제1 장치 예측 결과에 대응되는 제2 항목 가중치, 및 제1 장치 가중치를 곱하는 단계를 포함할 수 있다. 일례로, 제2 결과를 생성하는 단계는, 전처리된 제2 장치 예측 결과의 제1 항목 값, 제1 항목 가중치들 중 제2 장치 예측 결과에 대응되는 제1 항목 가중치, 및 제2 장치 가중치를 곱하는 단계, 및 전처리된 제2 장치 예측 결과의 제2 항목 값, 제2 항목 가중치들 중 제2 장치 예측 결과에 대응되는 제2 항목 가중치, 및 제2 장치 가중치를 곱하는 단계를 포함할 수 있다.
본 발명의 실시예에 따르면, 장치별 예측 결과들 각각의 항목 값들 및 장치 자체에 관한 가중치들을 종합적으로 고려하도록 예측 모델을 구축함으로써, 장치별 예측 결과들의 앙상블 결과의 정확성 및 신뢰성이 향상될 수 있다.
또한, 본 발명의 실시예에 따르면, 장치별 예측 모델들에 의한 상태 정보 및 장치 별 상태 정보의 불균형을 더 고려함으로써, 장치별 예측 결과들의 앙상블 결과의 정확성 및 신뢰성이 향상될 수 있다.
도 1은 본 발명의 실시예에 따른 건강 상태 예측 시스템을 도시한 도면이다.
도 2는 도 1의 앙상블 예측 장치의 예시적인 블록도이다.
도 3은 도 2의 데이터 관리기의 동작을 설명하기 위한 예시적인 도면이다.
도 4는 도 2의 학습기의 예시적인 블록도이다.
도 5는 도 4의 학습기를 구체화한 도면이다.
도 6은 도 4 및 도 5의 항목 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다.
도 7은 도 4 및 도 5의 장치 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다.
도 8은 도 4 및 도 5의 결과 계산기의 예시적인 계층 구조를 도시한 도면이다.
도 9는 도 4의 학습기의 예시적인 블록도이다.
도 10은 도 9의 학습기를 구체화한 도면이다.
도 11은 도 2의 예측기의 예시적인 블록도이다.
도 12는 도 2의 예측기의 예시적인 블록도이다.
도 13은 도 2의 데이터 관리기의 동작을 설명하기 위한 예시적인 도면이다.
도 14a 및 도 14b는 도 13의 상태 정보를 설명하기 위한 도면이다.
도 15는 도 13의 데이터 관리기의 예시적인 계층 구조를 도시한 도면이다.
도 16은 도 13의 데이터 관리기의 예시적인 계층 구조를 도시한 도면이다.
도 17은 도 2의 학습기의 예시적인 블록도이다.
도 18은 도 17의 항목 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다.
도 19는 도 2의 예측기의 예시적인 블록도이다.
도 20은 도 1의 앙상블 예측 장치의 예시적인 블록도이다.
아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재된다.
도 1은 본 발명의 실시예에 따른 건강 상태 예측 시스템을 도시한 도면이다. 도 1을 참조하면, 건강 상태 예측 시스템(1000)은 제1 내지 제n 예측 장치들(101~10n), 단말기(200), 앙상블 예측 장치(300), 및 네트워크(400)를 포함한다. 설명의 편의상, 예측 장치들(101~10n)의 개수가 n개인 것으로 도시하였으나, 건강 예측 장치들의 개수는 제한되지 않는다.
제1 내지 제n 예측 장치들(101~10n) 각각은 개별적으로 구축된 예측 모델에 기초하여 사용자의 건강 상태를 예측할 수 있다. 여기에서, 예측 모델은 시계열 의료 데이터를 이용하여, 미래 시점의 건강 상태를 예측하기 위하여 모델화된 구조일 수 있다. 제1 내지 제n 예측 장치들(101~10n) 각각은 제1 내지 제n 학습 데이터(11~1n)를 이용하여 예측 모델을 생성하고 학습할 수 있다.
제1 내지 제n 예측 장치들(101~10n) 각각은 서로 다른 의료 기관 또는 공공 기관에 제공될 수 있다. 제1 내지 제n 학습 데이터(11~1n)는 기관들 각각의 예측 모델 생성 및 학습을 위하여, 개별적으로 데이터베이스화될 수 있다. 서로 다른 의료 기관 또는 공공 기관은 개별적으로 예측 모델을 학습하고, 이러한 학습에 따라 구축된 예측 모델에 사용자의 시계열 의료 데이터를 적용하여, 사용자의 미래 시점에 대한 건강 상태를 예측할 수 있다.
제1 내지 제n 예측 장치들(101~10n) 각각은 네트워크(400)를 통하여, 앙상블 예측 장치(300)로부터 원시 학습 데이터(31)의 적어도 일부를 수신할 수 있다. 여기에서, 원시 학습 데이터(31)는 앙상블 예측 장치(300)에 구축된 예측 모델(33)을 학습하기 위한 시계열 의료 데이터를 포함할 수 있다.
제1 내지 제n 예측 장치들(101~10n)은 각각 원시 학습 데이터(31)를 구축된 예측 모델에 적용하여 제1 내지 제n 장치 예측 결과들을 생성할 수 있다. 여기에서, 제1 내지 제n 장치 예측 결과들은 원시 학습 데이터(31)에 제1 내지 제n 예측 장치들(101~10n) 각각이 미래 건강 상태를 예측한 결과 데이터로 이해될 수 있다. 제1 내지 제n 장치 예측 결과들은 네트워크(400)를 통하여, 앙상블 예측 장치(300)로 제공될 수 있다.
제1 내지 제n 장치 예측 결과들은 서로 다른 예측 모델에 기초하여 생성되므로, 서로 다른 데이터 값을 가질 수 있다. 제1 내지 제n 예측 장치들(101~10n) 각각은 서로 다른 시계열 의료 데이터, 즉 서로 다른 제1 내지 제n 학습 데이터(11~1n)을 기반으로 예측 모델을 학습 및 구축하기 때문이다. 윤리적 문제, 법적 문제, 개인 프라이버시 문제 등, 의료 데이터의 민감한 특성으로 인하여, 의료 기관 별로 데이터를 공유하기 어렵고, 빅데이터화가 어렵다. 따라서, 제1 내지 제n 예측 장치들(101~10n)이 개별적으로 예측 모델을 구축하되, 앙상블 예측 장치(300)에서 제1 내지 제n 예측 장치들(101~10n)로부터 원시 학습 데이터(31)의 예측 결과들을 앙상블함으로써, 다양한 데이터 학습이 고려된 미래 건강 예측이 가능할 수 있다.
제1 내지 제n 예측 장치들(101~10n)은 서로 다른 예측 모델에 기초하여 시계열 데이터(TD)를 분석한다. 의료 데이터의 민감성으로 인하여 데이터의 공유 및 교환이 어려운 환경에서, 의료 기관 또는 병원들은 내부적으로 구축된 데이터베이스로부터 미래 건강 상태를 예측하기 위한 예측 모델을 학습한다. 의료 환경 특성 상, 시계열 의료 데이터는 특정 의료 기관에 편중될 수 있다. 특정 질환의 전문 병원은 특정 질환에 편중된 의료 데이터를 수집하게 될 수 있다. 이에 따라, 의료 기관들에 따라 구축된 예측 모델의 정확도는 질환 특이적으로 편중될 수 있다. 이러한 상황에서, 본 발명의 건강 상태 예측 시스템(1000)은 서로 다른 방식으로 구축된 예측 모델들을 이용하여 결과들을 생성하고, 이를 앙상블함으로써, 협진과 같은 효과를 가질 수 있다.
단말기(200)는 환자(들)의 미래 건강 예측 또는 예측 모델(33)의 학습을 위한 요청 신호를 제공할 수 있다. 단말기(200)는 스마트폰, 데스크탑, 랩탑, 웨어러블 장치 등 요청 신호를 제공할 수 있는 전자 장치일 수 있다. 예를 들어, 단말기(200)는 네트워크(400)를 통하여, 앙상블 예측 장치(300)에 요청 신호를 제공할 수 있다. 이 경우, 앙상블 예측 장치(300)의 예측 모델(33)이 학습될 수 있다. 또는, 제1 내지 제n 예측 장치들(101~10n) 및 앙상블 예측 장치(300)에 의하여 사용자의 건강 상태가 진단되거나, 미래 건강 상태가 예측될 수 있다.
앙상블 예측 장치(300)는 제1 내지 제n 장치 예측 결과들을 이용하여 예측 모델(33)을 학습한다. 여기에서, 예측 모델(33)은 상술한 바와 같이, 제1 내지 제n 예측 장치들(101~10n) 각각이 건강 상태를 예측한 장치 예측 결과들을 앙상블하여, 미래 건강 상태를 최종 예측하기 위하여 모델화된 구조일 수 있다. 앙상블 예측 장치(300)는 원시 학습 데이터(31)의 적어도 일부를 예측 요청과 함께 제1 내지 제n 예측 장치들(101~10n)로 송신할 수 있다. 앙상블 예측 장치(300)는 예측 요청에 응답하여 제1 내지 제n 예측 장치들(101~10n) 각각이 시계열 의료 데이터를 예측한 결과인 제1 내지 제n 장치 예측 결과들을 수신할 수 있다. 앙상블 예측 장치(300)는 제1 내지 제n 장치 예측 결과들을 통합하여 앙상블 학습 데이터(32)를 생성할 수 있다. 앙상블 예측 장치(130)는 앙상블 학습 데이터(32)에 기초하여 예측 모델(33)을 학습한다.
원시 학습 데이터(31)는 진단, 치료, 검사, 또는 투약 처방 등에 의하여 생성된 사용자의 건강 상태를 나타내는 시계열 의료 데이터를 포함할 수 있다. 예시적으로, 시계열 의료 데이터는 EMR(Electronic Medical Record) 데이터 또는 PHR(Personal Health Record) 데이터일 수 있다. 원시 학습 데이터(31)는 앙상블 예측 장치(300)가 구현된 기관에서 수집된 시계열 의료 데이터를 포함할 수 있다. 원시 학습 데이터(31)는 앙상블 예측 장치(300)에서 통합 관리될 수 있다. 원시 학습 데이터(31)는 앙상블 예측 장치(300)의 서버 또는 저장 매체에 데이터베이스화될 수 있다.
앙상블 학습 데이터(32)는 제1 내지 제n 장치 예측 결과들을 포함할 수 있다. 예측 모델(33)을 학습하기 위하여, 앙상블 학습 데이터(32)는 제1 내지 제n 장치 예측 결과들을 생성한 제1 내지 제n 예측 장치들(101~10n)의 식별 정보를 포함할 수 있다. 후술될 장치 가중치를 생성하는데 식별 정보가 사용될 수 있다. 앙상블 학습 데이터(32)는 앙상블 예측 장치(300)에서 통합 관리될 수 있다. 앙상블 학습 데이터(32)는 앙상블 예측 장치(300)의 서버 또는 저장 매체에 데이터베이스화될 수 있다.
예측 모델(33)은 제1 내지 제n 예측 장치들(101~10n)로부터 생성된 장치별 예측 결과들(제1 내지 제n 장치 예측 결과들)을 앙상블하기 위한 앙상블 모델로 이해될 수 있다. 앙상블 모델은 단순히 예측 결과들을 병합하는 것이 아니라, 제1 내지 제n 장치 예측 결과들과 동일한 차원을 갖도록, 제1 내지 제n 장치 예측 결과들을 처리하기 위한 구조일 수 있다. 예측 모델(33)은 이러한 처리를 위한 인공 신경망이 구현되도록 가중치 그룹으로 관리될 수 있다. 가중치 그룹은 앙상블 예측 장치(300)의 서버 또는 저장 매체에 데이터베이스화될 수 있다. 가중치 그룹에 대한 구체적인 내용은 후술된다. 그리고, 앙상블 예측 장치(300)가 예측 모델(33)을 학습하고, 학습된 예측 모델(33)을 이용하여 앙상블 결과를 생성하는 구체적인 내용은 후술된다.
네트워크(400)는 제1 내지 제n 예측 장치들(101~10n), 단말기(200), 및 앙상블 예측 장치(300) 사이의 데이터 통신이 수행되도록 구성될 수 있다. 제1 내지 제n 예측 장치들(101~10n), 단말기(200), 및 앙상블 예측 장치(300)는 네트워크(400)를 통하여, 유선 또는 무선으로 데이터를 주고 받을 수 있다.
도 2는 도 1의 앙상블 예측 장치의 예시적인 블록도이다. 도 2의 앙상블 예측 장치(300)는 도 1의 제1 내지 제n 예측 장치들(101~10n)로부터 수신된 장치별 예측 결과들을 분석하여 앙상블 결과를 생성하기 위한 예측 모델(33)을 학습하거나, 앙상블 결과를 생성하기 위한 예시적인 구성으로 이해될 것이다. 도 2를 참조하면, 앙상블 예측 장치(300)는 데이터 관리기(310), 학습기(320), 및 예측기(330)를 포함한다.
데이터 관리기(310), 학습기(320), 및 예측기(330)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 일례로, 소프트웨어 (또는 펌웨어)는 앙상블 예측 장치(300)에 포함되는 메모리(미도시)에 로딩되어, 프로세서(미도시)에 의하여 실행될 수 있다. 일례로, 데이터 관리기(310), 학습기(320), 및 예측기(330)는 FPGA(Field Programmable Gate Aray) 또는 ASIC(Application Specific Integrated Circuit)와 같은 전용 논리 회로 등의 하드웨어로 구현될 수 있다.
데이터 관리기(310)는 원시 학습 데이터(31) 및 앙상블 학습 데이터(32)를 관리할 수 있다. 예측 모델(33)을 학습하기 위하여, 데이터 관리기(310)는 원시 학습 데이터(31)에 포함된 시계열 데이터를 도 1의 제1 내지 제n 예측 장치들(101~10n)로 제공할 수 있다. 데이터 관리기(310)는 예측 요청과 함께 시계열 데이터를 제1 내지 제n 예측 장치들(101~10n)로 출력할 수 있다. 이 경우, 제1 내지 제n 예측 장치들(101~10n)은 예측 요청에 응답하여, 개별적으로 구현된 예측 모델을 이용하여 시계열 데이터에 대한 제1 내지 제n 장치 예측 결과들을 생성할 수 있다. 제1 내지 제n 장치 예측 결과들 각각은 시계열 의료 데이터를 이용하여 판단된 미래 건강 상태의 예측 결과일 수 있다.
데이터 관리기(310)는 제1 내지 제n 예측 장치들(101~10n)로부터 제1 내지 제n 예측 결과들을 수신할 수 있다. 제1 내지 제n 예측 결과들은 앙상블 학습 데이터(32)로 병합되어 관리될 수 있다. 여기에서, 병합은 제1 내지 제n 예측 결과들 고유의 정보들을 변형시키지 않고, 식별 정보 등을 부가하여 결과들을 그룹화한 것으로 이해될 수 있다.
학습기(320)는 앙상블 학습 데이터(32)에 기초하여, 예측 모델(33)을 학습할 수 있다. 예측 모델(33)은 장치별 예측 결과들을 분석하여 미래의 최종 예측 결과인 앙상블 결과를 계산하기 위한 분석 모델을 포함할 수 있다. 예측 모델(33)은 인공 신경망(artificial neural network) 또는 딥러닝 기계 학습을 통하여 구축될 수 있다.
학습기(320)는 앙상블 학습 데이터(32)를 학습에 적합한 데이터로 전처리할 수 있다. 일례로, 전처리는 앙상블 학습 데이터(32)를 특정 수치 범위 (일례로, 0에서 1까지의 범위)로 변환하는 정규화 동작, 또는 수치화를 위한 인코딩 동작 등을 포함할 수 있다.
학습기(320)는 전처리된 앙상블 학습 데이터를 분석하여 예측 모델(33)의 가중치 그룹을 생성 및 조절할 수 있다. 가중치 그룹은 예측 모델(33)의 인공 신경망 구조 또는 신경망에 포함된 모든 파라미터들의 집합일 수 있다. 학습기(320)는 전처리된 앙상블 학습 데이터의 분석을 통하여 앙상블 결과를 생성할 수 있다. 학습기(320)는 생성된 앙상블 결과가 기대되는 비교 결과를 갖도록 (또는, 비교 결과로부터 기준 오차 이내이도록), 예측 모델(33)의 가중치 그룹을 조절할 수 있다. 비교 결과는 실측 값일 수 있고, 앙상블 예측 장치(300)에 기설정될 수 있다. 조절된 가중치 그룹은 예측 모델(33)에 반영되어 앙상블 예측 장치(300)에 의하여 관리될 수 있다.
예측기(330)는 학습기(320)로부터 학습된 예측 모델(33) 및 가중치 그룹에 기초하여, 특정 사용자에 대응되는 장치 예측 결과들을 분석하고, 앙상블 결과를 생성할 수 있다. 데이터 관리기(310)가 예측 요청과 함께 특정 사용자의 시계열 데이터(타겟 데이터)를 제1 내지 제n 예측 장치들(101~10n)을 제공할 수 있다. 제1 내지 제n 예측 장치들(101~10n)은 예측 요청에 응답하여, 제1 내지 제n 장치 예측 결과들을 생성할 수 있다. 예측기(330)는 제1 내지 제n 장치 예측 결과들을 전처리하고, 예측 모델(33)의 가중치 그룹을 통하여 분석할 수 있다. 그리고, 앙상블 결과는 도 1의 단말기(200) 등에 제공될 수 있다.
도 3은 도 2의 데이터 관리기의 동작을 설명하기 위한 예시적인 도면이다. 도 3을 참조하면, 데이터 관리기(310)는 시계열 데이터(TD)를 수신한다. 예측 모델(33)의 학습 동작에서, 시계열 데이터(TD)는 서버(미도시) 또는 스토리지(미도시)에서 관리되는 원시 학습 데이터(31)의 적어도 일부일 수 있다. 학습된 예측 모델(33)을 이용한 미래 상태의 예측 동작에서, 시계열 데이터(TD)는 도 1의 단말기(200)로부터 제공되거나, 앙상블 예측 장치(300)에 의하여 생성 또는 수집될 수 있다.
시계열 데이터(TD)는 시간의 흐름에 따라 기록된, 시간적 순서를 갖는 데이터 집합일 수 있다. 시계열 데이터(TD)는 시계열적으로 나열된 복수의 시간들 각각에 대응되는 적어도 하나의 특징들(F1~Fa)을 포함할 수 있다. 일례로, 시계열 데이터(TD)는 전자 의무 기록(Electronic Medical Record, EMR)과 같이, 의료 기관에서 진단, 치료, 또는 투약 처방 등에 의하여 생성된 사용자의 건강 상태를 나타내는 시계열 의료 데이터를 포함할 수 있다. 특징들(F1~Fa)은 진단, 검사, 또는 처방된 항목들 각각의 값들을 나타낼 수 있다. 일례로, 항목은 혈압, 혈당, 콜레스테롤 수치, 또는 몸무게 등 다양한 건강 지표를 나타낼 수 있다. 설명의 명확성을 위하여, 시계열 의료 데이터가 예시적으로 설명되었으나, 시계열 데이터(TD)의 종류는 이에 제한되지 않고, 시계열 데이터(TD)는 엔터테인먼트, 리테일, 스마트 매니지먼트 등 다양한 분야에서 생성 및 수집될 수 있다.
데이터 관리기(310)는 예측 요청과 함께 시계열 데이터(TD)를 제1 내지 제n 예측 장치들(101~10n)로 제공할 수 있다. 제1 내지 제n 예측 장치들(101~10n)은 예측 요청에 응답하여, 개별적으로 구축된 예측 모델을 이용하여 시계열 데이터(TD)를 분석할 수 있다. 분석 결과, 제1 내지 제n 예측 장치들(101~10n)은 각각 제1 내지 제n 장치 예측 결과들(PD1~PDn)을 생성할 수 있다. 제1 내지 제n 장치 예측 결과들(PD1~PDn)은 특정 미래 시점에 대한 건강 상태를 나타낼 수 있다.
제1 내지 제n 장치 예측 결과들(PD1~PDn) 각각은 특정 미래 시점에 대한 항목 값들(P11~Pb1, P12~Pb2, P1n~Pbn)을 포함할 수 있다. 항목 값들은 미래 시점에 대한 건강 지표를 나타내는 값들일 수 있으며, 일례로, 혈압, 콜레스테롤 수치, 또는 몸무게 등의 예측 값들, 진단/질병 코드, 레이블 등을 포함할 수 있다. 시계열 데이터(TD)의 항목들의 개수와 제1 내지 제n 장치 예측 결과들(PD1~PDn) 각각의 항목들의 개수는 같거나 다를 수 있다. 일례로, 시계열 데이터(TD)는 a개의 특징들을 포함하고, 제1 내지 제n 장치 예측 결과들(PD1~PDn) 각각은 b개의 항목 값들을 포함할 수 있다.
데이터 관리기(310)는 제1 내지 제n 장치 예측 결과들(PD1~PDn)을 수신하고, 병합할 수 있다. 데이터 관리기(310)는 제1 내지 제n 장치 예측 결과들(PD1~PDn)에 각각 제1 내지 제n 식별 정보(I1~In)를 부가하여 그룹화한 병합 데이터(MLD)를 생성할 수 있다. 제1 내지 제n 식별 정보(I1~In)는 제1 내지 제n 장치 예측 결과들(PD1~PDn) 각각이 생성된 예측 장치들 구분하기 위한 정보일 수 있다. 제1 내지 제n 식별 정보(I1~In)는 후술하겠으나, 예측 모델(33)을 학습하거나 이용할 때, 장치마다 다른 가중치(장치 가중치)가 사용될 수 있고, 장치 가중치는 제1 내지 제n 식별 정보(I1~In)에 기초하여 제1 내지 제n 장치 예측 결과들(PD1~PDn)에 적용될 수 있다.
예측 모델(33)의 학습 동작에서, 병합 데이터(MLD)는 서버(미도시) 또는 스토리지(미도시)에서 관리되는 앙상블 학습 데이터(32)에 포함될 수 있고, 도 2의 학습기(320)에 제공될 수 있다. 학습된 예측 모델(33)을 이용한 미래 상태의 예측 동작에서, 병합 데이터(MLD)는 도 2의 예측기(330)에 제공될 수 있다.
도 4는 도 2의 학습기의 예시적인 블록도이다. 도 4의 학습기(320_1)는 복수의 예측 장치들로부터 수신된 예측 결과들에 기초하여 예측 모델(33)을 학습하고 가중치 그룹을 결정하는 예시적인 구성으로 이해될 것이다. 학습기(320_1)는 전처리기(321_1), 항목 분류기(322_1), 항목 가중치 계산기(323_1), 장치 가중치 계산기(324_1), 가중치 적용기(325_1), 결과 계산기(326_1), 및 가중치 제어기(327_1)를 포함할 수 있다. 상술한 바와 같이, 학습기(320_1)에 포함된 각 구성들은 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다.
전처리기(321_1)는 앙상블 학습 데이터(32)를 학습에 적합한 데이터로 전처리할 수 있다. 상술한 바와 같이, 앙상블 학습 데이터(32)는 복수의 예측 장치들로부터 수신된 장치 예측 결과들을 포함할 수 있다. 일례로, 전처리기(321_1)는 장치 예측 결과들의 항목 값들을 특정 수치 범위 (일례로, 0에서 1까지의 범위)로 변환할 수 있다. 일례로, 전처리기(321_1)는 항목 값들이 비수치 형식인 경우, 수치 형식으로 변환할 수 있다. 비수치 형식은 코드 형식 또는 범주 형식(Categorical type) (예를 들어, L3011, E2014, K3095 등)을 포함할 수 있다. 예를 들어, EMR 데이터는 특정 질환, 처방, 또는 검사에 따라 약속된 데이터 형식을 가질 수 있고, 장치 예측 결과들은 수치 형식과 비수치 형식이 혼재된 값들을 가질 수 있다. 전처리기(321_1)는 비수치 형식의 값들을 수치화하고 (예를 들어, 0010, 1001, 1101 등), 특정 수치 범위로 정규화할 수 있다.
전처리기(321_1)는 장치 예측 결과들을 예측 모델(33) 학습에 적합한 형태로 변형시킬 뿐, 항목 값들이 나타내는 고유의 특징 정보 자체를 알 수 없도록 변경하는 것은 아니다. 따라서, 이하에서 설명의 편의상, 전처리된 장치 예측 결과들이 장치 예측 결과로 일관되게 진술될 수 있음이 이해될 것이다. 이하에서, 특별히 조건을 지정하지 않는 한, 장치 예측 결과는 전처리된 장치 예측 결과를 포함하는 개념일 것이다. 전처리 동작은 예시적인 것으로, 복수의 예측 장치들로부터 수신된 예측 결과들이 예측 모델(33) 학습에 적합한 경우, 별도의 전처리 과정이 없을 수도 있다.
항목 분류기(322_1)는 전처리된 앙상블 학습 데이터를 항목별로 분리하고, 그룹화할 수 있다. 도 3에 도시된 바와 같이, 장치 예측 결과는 복수의 항목 값들을 포함한다. 항목 분류기(322_1)는 동일한 항목을 갖는 값들을 그룹화할 수 있다. 일례로, 항목 분류기(322_1)는 도 3의 제1 장치 예측 결과(PD1)의 제1 항목 값(P11), 제2 장치 예측 결과(PD2)의 제1 항목 값(P12), 및 제n 장치 예측 결과(PDn)의 제1 항목 값(P1n)을 하나의 그룹으로 분류할 수 있다. 분리된 항목 값들은 항목 가중치 계산기(323_1)에 입력된다.
항목 가중치 계산기(323_1)는 항목 분류기(322_1)로부터 그룹화된 항목 값들을 분석한다. 항목 가중치 계산기(323_1)는 그룹들마다 분리하여 항목 값들을 분석할 수 있다. 항목 가중치 계산기(323_1)는 항목 가중치를 생성하기 위한 예측 모델(33)의 파라미터들(항목 파라미터)에 기초하여 항목 값들에 각각 대응되는 항목 가중치들을 생성할 수 있다. 이러한 항목 파라미터는 가중치 그룹에 포함된다. 도 3과 같이, 항목 값들의 개수가 bXn개인 경우, 항목 가중치들의 개수는 bXn개일 수 있다.
항목 가중치들은 항목 값들의 크기에 의존한다. 항목 가중치는 미래 건강 상태를 예측하기 위한 항목 값들 각각의 중요도를 판단하는 지표로 이해될 수 있다. 항목 가중치는 특정 항목의 앙상블 결과에 관여하는 예측 장치(기관)의 중요도를 의미하며, 항목들 각각의 지역적(local) 중요도로 이해될 수 있다. 예시적으로, 항목 가중치 계산기(323_1)는 어텐션 메커니즘(attention mechanism)을 이용하여, 앙상블 결과가 특정된 예측 장치에서 생성된 항목에 주목하도록 항목 가중치들을 생성할 수 있다.
장치 가중치 계산기(324_1)는 장치 예측 결과들에 기초하여, 예측 장치들의 특성을 분석한다. 장치 가중치 계산기(324_1)는 장치 가중치를 생성하기 위한 예측 모델(33)의 파라미터들(장치 파라미터)에 기초하여 예측 장치들에 각각 대응되는 장치 가중치들을 생성할 수 있다. 이러한 장치 파라미터는 가중치 그룹에 포함된다. 도 3과 같이, 예측 장치들의 개수가 n개인 경우, 항목 가중치들의 개수는 n개일 수 있다.
장치 가중치는 장치 예측 결과들 자체의 정확성 또는 신뢰성과 관련한 예측 장치(기관)의 전역적(global) 중요도를 판단하는 지표로 이해될 수 있다. 예시적으로, 장치 가중치 계산기(324_1)는 어텐션 메커니즘(attention mechanism)을 이용하여, 앙상블 결과가 특정된 예측 장치에 주목하도록 장치 가중치들을 생성할 수 있다.
가중치 적용기(325_1)는 항목 가중치들 및 장치 가중치들을 장치 예측 결과들에 적용할 수 있다. 적용 결과, 가중치 적용기(325_1)는 예측 장치들 각각의 전반적인 신뢰성 및 예측 장치들 각각의 특정 분야(항목)의 신뢰성 모두를 반영한 학습 결과를 생성할 수 있다. 예를 들어, 가중치 적용기(325_1)는 제1 예측 장치의 제1 항목 값에, 해당 제1 항목 값에 대응되는 항목 가중치(제1 항목 가중치) 및 제1 예측 장치에 대응되는 장치 가중치(제1 장치 가중치)를 곱할 수 있다. 예를 들어, 가중치 적용기(325_1)는 제2 예측 장치의 제1 항목 값에, 해당 제1 항목 값에 대응되는 항목 가중치(제2 항목 가중치) 및 제2 예측 장치에 대응되는 장치 가중치(제2 장치 가중치)를 곱할 수 있다. 예를 들어, 가중치 적용기(325_1)는 제1 예측 장치의 제2 항목 값에, 해당 제2 항목 값에 대응되는 항목 가중치(제3 항목 가중치) 및 제1 장치 가중치를 곱할 수 있다.
결과 계산기(326_1)는 가중치 적용기(325_1)로부터 생성된 학습 결과에 기초하여, 앙상블 결과를 생성할 수 있다. 학습 결과는 장치 예측 결과들에 포함된 항목 값들에 항목 가중치 및 장치 가중치를 적용한 결과이다. 따라서, 학습 결과는 장치 예측 결과들 모두를 병합한 크기의 차원을 가질 수 있다. 결과 계산기(326_1)는 하나의 장치 예측 결과와 같은 차원을 갖는 앙상블 결과를 생성할 수 있다. 결과 계산기(326_1)는 예측 모델(33)의 파라미터들(앙상블 파라미터)에 기초하여 앙상블 결과를 생성할 수 있다. 이러한 앙상블 파라미터는 가중치 그룹에 포함된다. 앙상블 결과에 포함된 항목 값들의 개수는 하나의 장치 예측 결과에 포함된 항목 값들의 개수와 같을 수 있다.
가중치 제어기(327_1)는 앙상블 결과에 기초하여, 가중치 그룹에 포함된 파라미터들을 조절할 수 있다. 여기에서 파라미터들은 상술된 항목 파라미터, 장치 파라미터, 및 앙상블 파라미터를 포함한다. 가중치 제어기(327_1)는 앙상블 결과가 원하는 실제 결과인 비교 결과에 대응되는지 판단할 수 있다. 가중치 제어기(327_1)는 앙상블 결과가 비교 결과에 도달하도록, 항목 파라미터, 장치 파라미터, 및 앙상블 파라미터를 조절할 수 있다. 조절된 항목 파라미터에 기초하여, 항목 가중치 계산기(323_1)는 항목 가중치를 반복적으로 생성할 수 있다. 조절된 장치 파라미터에 기초하여, 장치 가중치 계산기(324_1)는 장치 가중치를 반복적으로 생성할 수 있다. 조절된 앙상블 파라미터에 기초하여, 결과 계산기(326_1)는 앙상블 결과를 반복적으로 생성할 수 있다. 이러한 반복 동작은 앙상블 결과가 비교 결과로부터 기준 오차 이내일 때까지 수행될 수 있다.
도 5는 도 4의 학습기를 구체화한 도면이다. 도 5를 참조하면, 학습기(320_1)는 전처리기(321_1), 항목 분류기(322_1), 항목 가중치 계산기(323_1), 장치 가중치 계산기(324_1), 가중치 적용기(325_1), 결과 계산기(326_1), 및 가중치 제어기(327_1)를 포함할 수 있다.
학습기(320_1)는 도 3에서 설명된 병합 데이터(MLD)를 수신한다. 병합 데이터(MLD)는 장치 예측 결과들(PD1, PD2)을 포함하며, 설명의 편의상 2개의 예측 장치들로부터 제1 및 제2 장치 예측 결과들(PD1, PD2)이 생성된 것으로 가정한다. 제1 장치 예측 결과(PD1)는 제1 항목에 대응되는 제1 항목 값(P11) 및 제2 항목에 대응되는 제2 항목 값(P21)을 포함하고, 제2 장치 예측 결과(PD2)는 제1 항목에 대응되는 제3 항목 값(P12) 및 제2 항목에 대응되는 제4 항목 값(P22)을 포함한다. 설명의 편의상 제1 및 제2 장치 예측 결과들(PD1, PD2)은 제1 항목 및 제2 항목에 대응되는 값들을 포함하는 것으로 가정한다. 병합 데이터(MLD)는 제1 예측 장치 및 제2 예측 장치를 구별하기 위한 제1 및 제2 식별 정보(I1, I2)를 더 포함할 수 있다.
전처리기(321_1)는 병합 데이터(MLD)를 전처리하여 전처리 데이터(PLD)를 생성할 수 있다. 전처리기(321_1)는 병합 데이터(MLD)의 비수치 형식 값들을 수치 형식으로 변환하고, 제1 내지 제4 항목 값들(P11, P21, P12, P22)을 특정 수치 범위로 변환할 수 있다. 설명의 편의상, 전처리된 제1 내지 제4 항목 값들(E11, E21, E12, E22)도 이하에서 제1 내지 제4 항목 값들로 지칭된다.
항목 분류기(322_1)는 전처리 데이터(PLD)를 항목별로 그룹화할 수 있다. 그 결과, 제1 항목에 대응되는 제1 항목 값(E11) 및 제3 항목 값(E12)은 제1 그룹(G1)으로 그룹화될 수 있다. 제2 항목에 대응되는 제2 항목 값(E21) 및 제4 항목 값(E22)은 제2 그룹(G2)으로 그룹화될 수 있다.
항목 가중치 계산기(323_1)는 제1 그룹(G1)에 기초하여, 제1 항목에 대한 제1 그룹 가중치(AD1)를 생성할 수 있다. 항목 가중치 계산기(323_1)는 제2 그룹(G2)에 기초하여, 제2 항목에 대한 제2 그룹 가중치(AD2)를 생성할 수 있다. 제1 그룹 가중치(AD1)는 제1 항목 값(E11)에 대응되는 제1 항목 가중치(A11) 및 제3 항목 값(E12)에 대응되는 제3 항목 가중치(A12)를 포함할 수 있다. 제2 그룹 가중치(AD2)는 제2 항목 값(E21)에 대응되는 제2 항목 가중치(A21) 및 제4 항목 값(E22)에 대응되는 제4 항목 가중치(A22)를 포함할 수 있다.
항목 가중치 계산기(323_1)는 어텐션 매커니즘을 이용하여, 앙상블 결과가 특정 항목에서는 특정된 예측 장치의 항목 값에 주목하도록 항목 가중치들(A11, A21, A12, A22)을 생성할 수 있다. 구체적으로, 항목 가중치 계산기(323_1)는 인공 신경망을 통하여 제1 그룹(G1) 및 제2 그룹(G2)을 분리하여 항목 값들을 분석할 수 있다. 인공 신경망은 가중치(Wa) 및 바이어스(ba)에 기초하여, 제1 그룹(G1) 또는 제2 그룹(G2)을 분석할 수 있다. 가중치(Wa) 및 바이어스(ba)는 상술된 예측 모델(33)의 가중치 그룹에 포함되고, 항목 파라미터에 대응된다.
항목 가중치 계산기(323_1)는 제1 그룹(G1) 및 제2 그룹(G2) 각각을 softmax 함수에 적용함으로써, 제1 그룹 가중치(AD1) 및 제2 그룹 가중치(AD2)를 생성할 수 있다. 이 경우, 해당 함수에 가중치(Wa) 및 바이어스(ba)가 적용될 수 있다. 일례로, 항목 가중치 계산기(323_1)는 AD1=softmax(tanh(Wa*G1+ba)) 및 AD2=softmax(tanh(Wa*G2+ba)) 수식을 계산함으로써, 제1 그룹 가중치(AD1) 및 제2 그룹 가중치(AD2)를 생성할 수 있다. 여기에서, 제1 그룹(G1)을 분석하기 위한 가중치(Wa) 및 바이어스(ba)는 제2 그룹(G2)을 분석하기 위한 가중치(Wa) 및 바이어스(ba)와 다를 수 있다.
장치 가중치 계산기(324_1)는 전처리 데이터(PLD)에 기초하여 장치 가중치(BD)를 생성할 수 있다. 장치 가중치(BD)는 제1 예측 장치 (또는 제1 장치 예측 결과(PD1, ED1))에 대응되는 제1 장치 가중치(B1) 및 제2 예측 장치 (또는 제2 장치 예측 결과(PD2, ED2))에 대응되는 제2 장치 가중치(B2)를 포함할 수 있다.
장치 가중치 계산기(324_1)는 어텐션 매커니즘을 이용하여, 앙상블 결과가 전반적으로 특정 장치 예측 결과에 주목하도록 장치 가중치들(B1, B2)을 생성할 수 있다. 구체적으로, 장치 가중치 계산기(324_1)는 인공 신경망을 통하여 항목 값들을 분석할 수 있다. 인공 신경망은 가중치(Wb) 및 바이어스(bb)에 기초하여, 전처리 데이터(PLD)를 분석할 수 있다. 가중치(Wb) 및 바이어스(bb)는 상술된 예측 모델(33)의 가중치 그룹에 포함되고, 장치 파라미터에 대응된다.
장치 가중치 계산기(324_1)는 전처리 데이터(ED)를 softmax 함수에 적용함으로써, 장치 가중치(BD)를 생성할 수 있다. 이 경우, 해당 함수에 가중치(Wb) 및 바이어스(bb)가 적용될 수 있다. 일례로, 장치 가중치 계산기(324_1)는 BD=softmax(tanh(Wb*PLD+bb)) 수식을 계산함으로써, 장치 가중치(BD)를 생성할 수 있다.
가중치 적용기(325_1)는 그룹 가중치들(AD1, AD2) 및 장치 가중치(BD)를 전처리 데이터(PLD)에 적용할 수 있다. 적용 결과, 가중치 적용기(325_1)는 예측 장치들 각각의 장치 예측 결과의 전반적인 신뢰성 및 예측 장치들 각각의 장치 예측 결과의 특정 분야 (항목)의 신뢰성 모두를 반영한 학습 결과(YD)를 생성할 수 있다. 학습 결과(YD)는 제1 내지 제4 항목 값들(E11, E21, E12, E22)에 각각 대응되는 제1 내지 제4 결과들(Y11, Y21, Y12, Y22)을 포함할 수 있다.
일례로, 제1 결과(Y11)는 제1 항목 값(E11)에 제1 항목 가중치(A11) 및 제1 장치 가중치(B1)을 곱한 결과일 수 있다. 제2 결과(Y21)는 제2 항목 값(E21)에 제2 항목 가중치(A21) 및 제1 장치 가중치(B1)를 곱한 결과일 수 있다. 제3 결과(Y12)는 제3 항목 값(E12)에 제3 항목 가중치(A12) 및 제2 장치 가중치(B2)를 곱한 결과일 수 있다. 제4 결과(Y22)는 제4 항목 값(E22)에 제4 항목 가중치(A22) 및 제2 장치 가중치(B2)를 곱한 결과일 수 있다.
결과 계산기(326_1)는 학습 결과(YD)에 기초하여, 앙상블 결과(RD)를 생성할 수 있다. 앙상블 결과(RD)는 제1 항목에 대응되는 제1 예측 결과(R1) 및 제2 항목에 대응되는 제2 예측 결과(R2)를 포함할 수 있다. 결과 계산기(326_1)는 앙상블 결과(RD)가 제1 항목에 대응되는 값의 개수가 하나이고, 제2 항목에 대응되는 값의 개수가 하나이도록 학습 결과(YD)의 차원을 축소할 수 있다.
결과 계산기(326_1)는 인공 신경망을 통하여 학습 결과(YD)를 분석할 수 있다. 인공 신경망은 가중치(Wr) 및 바이어스(br)에 기초하여, 학습 결과(YD)를 분석할 수 있다. 가중치(Wr) 및 바이어스(br)는 상술된 예측 모델(33)의 가중치 그룹에 포함되고, 앙상블 파라미터에 대응된다. 인공 신경망의 레이어는 학습 결과(YD)에 기초하여 입력된 데이터에 가중치(Wr)를 곱하고, 곱셈 결과에 바이어스(br)를 더하여 데이터를 출력할 수 있다.
가중치 제어기(327_1)는 앙상블 결과(RD)와 비교 결과(CD)를 비교하여, 가중치 그룹에 포함된 파라미터들(Wa, ba, Wb, bb, Wr, br)을 조절할 수 있다. 비교 결과(CD)는 제1 항목에 대응되는 제1 값(C1) 및 제2 항목에 대응되는 제2 값(C2)을 포함할 수 있다. 일례로, 비교 결과(CD)는 실측 값일 수 있다. 가중치 제어기(327_1)는 앙상블 결과(RD)가 비교 결과에 도달하도록, 파라미터들(Wa, ba, Wb, bb, Wr, br)을 조절할 수 있다. 조절된 파라미터들(Wa, ba, Wb, bb, Wr, br)에 기초하여, 전처리 데이터(PLD)는 반복적으로 분석될 수 있다.
도 6은 도 4 및 도 5의 항목 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다. 도 6은 항목 가중치 계산기(323_1)의 인공 신경망 구조를 예시적으로 도시한다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 상술한 바와 같이, 항목 가중치 계산기(323_1)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 도 6을 참조하면, 항목 가중치 계산기(323_1)의 인공 신경망은 제1 및 제2 입력 레이어들(LI1, LI2), 제1 및 제2 임베딩 레이어들(LE1, LE2), 제1 및 제2 어텐션 레이어들(LA1, LA2), 및 제1 및 제2 출력 레이어들(LO1, LO2)을 포함할 수 있다.
제1 입력 레이어(LI1)는 제1 항목 값들(E11~E1n)을 수신한다. 제1 항목 값들(E11~E1n)은 도 5에서 설명된 항목 분류기(322_1)에 의하여 제1 그룹(G1)으로 그룹화될 수 있다. 제2 입력 레이어(LI2)는 제2 항목 값들(E21~E2n)을 수신한다. 제2 항목 값들(E21~E2n)은 도 5에서 설명된 항목 분류기(322_1)에 의하여 제2 그룹(G2)으로 그룹화될 수 있다. 제1 그룹(G1)과 제2 그룹(G2)은 서로 상관되지 않고, 항목 가중치 계산기(323_1)에 의하여 분석될 수 있다.
제1 임베딩 레이어(LE1)는 제1 항목 값들(E11~E1n) 사이의 관계를 고려하여, 제1 어텐션 레이어(LA1)에 중간 결과를 출력할 수 있다. 제1 항목 값들(E11~E1n) 각각은 서로 다른 예측 장치들로부터 생성된다. 제1 임베딩 레이어(LE1)는 도 5에서 설명된 항목 파라미터(Wa, ba)의 일부를 제1 항목 값들(E11~E1n)에 적용함으로써, 제1 항목 값들(E11~E1n) 사이의 관계를 계산할 수 있다. 제1 임베딩 레이어(LE1)는 복수의 레이어들을 포함할 수 있다. 레이어들 각각의 출력이 y이고 입력이 x인 경우, 레이어들 각각은 y=wa*x+ba를 계산할 수 있다. 항목 파라미터(Wa, ba)는 레이어들 사이의 연결 또는 네트워크를 나타낼 수 있다. 레이어들 각각은 완전 연결 네트워크(Fully-connected network), 순환 신경망(Recurrent neural network), 및 LSTM(Long short term memory) 등 다양한 방식의 인공 신경망으로 구현될 수 있다. 마찬가지로, 제2 임베딩 레이어(LE2)는 제2 항목 값들(E21~E2n) 사이의 관계를 고려하여, 제2 어텐션 레이어(LA2)에 중간 결과를 출력할 수 있다.
제1 어텐션 레이어(LA1)는 제1 임베딩 레이어(LE1)로부터 출력된 중간 결과를 분석하여 제1 항목에 대한 제1 항목 가중치들(A11~A1n)을 계산할 수 있다. 제1 어텐션 레이어(LA1)는 어텐션 메커니즘(attention mechanism)을 이용하여, 특정된 예측 장치에서 생성된 항목에 주목하도록 제1 항목 가중치들(A11~A1n)을 계산할 수 있다. 도 5에서 설명한 바와 같이, 제1 어텐션 레이어(LA1)는 중간 결과에 항목 파라미터(Wa, ba)의 일부 및 softmax 함수를 적용할 수 있다. 마찬가지로, 제2 어텐션 레이어(LA2)는 제2 임베딩 레이어(LE2)로부터 출력된 중간 결과를 분석하여 제2 항목에 대한 제2 항목 가중치들(A21~A2n)을 계산할 수 있다.
제1 출력 레이어(LO1)는 제1 어텐션 레이어(LA1)에 의하여 계산된 제1 항목 가중치들(A11~A1n)을 정렬하고, 제1 항목 가중치들(A11~A1n)를 도 4 및 도 5의 가중치 적용기(325_1)로 출력할 수 있다. 제2 출력 레이어(LO2)는 제2 어텐션 레이어(LA2)에 의하여 계산된 제2 항목 가중치들(A21~A2n)을 정렬하고, 제2 항목 가중치들(A21~A2n)를 도 4 및 도 5의 가중치 적용기(325_1)로 출력할 수 있다.
도 7은 도 4 및 도 5의 장치 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다. 도 7은 장치 가중치 계산기(324_1)의 인공 신경망 구조를 예시적으로 도시한다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 상술한 바와 같이, 장치 가중치 계산기(324_1)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 도 7을 참조하면, 장치 가중치 계산기(324_1)의 인공 신경망은 입력 레이어(LI), 임베딩 레이어(LE), 어텐션 레이어(LA), 및 출력 레이어(LO)를 포함할 수 있다.
입력 레이어(LI)는 장치 예측 결과들(ED1~EDn)을 수신한다. 장치 예측 결과들(ED1~EDn) 각각은 서로 다른 예측 장치들로부터 생성된다. 장치 예측 결과들(ED1~EDn) 각각은 항목 값들을 포함한다. 즉, 장치 예측 결과들(ED1~EDn)의 항목 값들 전체가 서로 상관되어 장치 가중치 계산기(324_1)에 의하여 분석될 수 있다.
임베딩 레이어(LE)는 예측 장치들 사이의 관계를 고려하여, 어텐션 레이어(LA)에 중간 결과를 출력할 수 있다. 임베딩 레이어(LE)는 도 5에서 설명된 장치 파라미터(Wb, bb)의 일부를 장치 예측 결과들(ED1~EDn)에 적용함으로써, 장치 예측 결과들(ED1~EDn) 사이의 관계를 계산할 수 있다. 임베딩 레이어(LE)는 복수의 레이어들을 포함할 수 있다. 레이어들 각각의 출력이 y이고 입력이 x인 경우, 레이어들 각각은 y=wb*x+bb를 계산할 수 있다. 장치 파라미터(Wb, bb)는 레이어들 사이의 연결 또는 네트워크를 나타낼 수 있다. 레이어들 각각은 완전 연결 네트워크(Fully-connected network), 순환 신경망(Recurrent neural network), 및 LSTM(Long short term memory) 등 다양한 방식의 인공 신경망으로 구현될 수 있다.
어텐션 레이어(LA)는 임베딩 레이어(LE)로부터 출력된 중간 결과를 분석하여 예측 장치들에 각각 대응되는 장치 가중치들(B1~Bn)을 계산할 수 있다. 어텐션 레이어(LA)는 어텐션 메커니즘(attention mechanism)을 이용하여, 특정된 장치 예측 결과에 주목하도록 장치 가중치들(B1~Bn)을 계산할 수 있다. 도 5에서 설명한 바와 같이, 어텐션 레이어(LA)는 중간 결과에 장치 파라미터(Wb, bb)의 일부 및 softmax 함수를 적용할 수 있다. 출력 레이어(LO)는 계산된 장치 가중치들(B1~Bn)을 정렬하고, 장치 가중치들(B1~Bn)을 도 4 및 도 5의 가중치 적용기(325_1)로 출력할 수 있다.
도 8은 도 4 및 도 5의 결과 계산기의 예시적인 계층 구조를 도시한 도면이다. 도 8은 결과 계산기(326_1)의 인공 신경망 구조를 예시적으로 도시한다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 상술한 바와 같이, 결과 계산기(326_1)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 도 8을 참조하면, 결과 계산기(326_1)의 인공 신경망은 입력 레이어(LI), 예측 레이어(LP), 및 출력 레이어(LO)를 포함할 수 있다.
입력 레이어(LI)는 장치 예측 결과들에 항목 가중치들 및 장치 가중치들이 적용된 학습 결과들(Y1~Yn)을 수신한다. 학습 결과들(Y1~Yn) 각각은 서로 다른 예측 장치들에 대응된다. 학습 결과들(Y1~Yn) 각각은 서로 다른 항목 가중치들이 적용되고, 동일한 장치 가중치가 적용된 결과들을 포함한다. 이러한 결과들 각각은 서로 다른 항목들에 대응된다. 학습 결과들(Y1~Yn) 전체는 서로 상관되어 결과 계산기(326_1)에 의하여 분석될 수 있다.
예측 레이어(LP)는 학습 결과들(Y1~Yn) 사이의 상관 관계를 계산할 수 있다. 예측 레이어(LP)는 도 5에서 설명된 앙상블 파라미터(Wr, br)를 학습 결과들(Y1~Yn)에 적용함으로써, 학습 결과들(Y1~Yn) 사이의 상관 관계를 계산할 수 있다. 예측 레이어(LP)는 복수의 레이어들을 포함할 수 있다. 앙상블 파라미터(Wr, br)는 레이어들 사이의 연결 또는 네트워크를 나타낼 수 있다. 레이어들 각각은 완전 연결 네트워크(Fully-connected network), 순환 신경망(Recurrent neural network), 및 LSTM(Long short term memory) 등 다양한 방식의 인공 신경망으로 구현될 수 있다.
예측 레이어(LP)는 학습 결과들(Y1~Yn) 중 하나의 학습 결과의 차원과 같은 앙상블 결과(R1~Rb)를 생성하도록 구현될 수 있다. 학습 결과들(Y1~Yn)은 n개의 장치 및 b개의 항목들에 의한 nXb 차원의 값들을 가질 수 있다. 예측 레이어(LP)는 항목들의 개수의 값들을 갖는 앙상블 결과(R1~Rb)를 계산할 수 있다. 출력 레이어(LO)는 계산된 앙상블 결과(R1~Rb)를 정렬하고, 앙상블 결과(R1~Rb)를 도 4 및 도 5의 가중치 제어기(327_1)로 출력할 수 있다.
도 9는 도 4의 학습기의 예시적인 블록도이다. 도 9의 학습기(320_2)는 복수의 예측 장치들로부터 수신된 예측 결과들에 기초하여 예측 모델(33)을 학습하고 가중치 그룹을 결정하는 예시적인 구성으로 이해될 것이다. 학습기(320_2)는 전처리기(321_2), 항목 분류기(322_2), 항목 가중치 계산기(323_2), 항목 가중치 적용기(324_2), 장치 가중치 계산기(325_5), 장치 가중치 적용기(326_2), 결과 계산기(327_2), 및 가중치 제어기(328_2)를 포함할 수 있다. 상술한 바와 같이, 학습기(320_2)에 포함된 각 구성들은 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다.
전처리기(321_2)는 앙상블 학습 데이터(32)를 학습에 적합한 데이터로 전처리할 수 있다. 전처리기(321_2)는 도 4의 전처리기(321_1)와 실질적으로 동일하게 동작할 수 있다.
항목 분류기(322_2)는 전처리된 앙상블 학습 데이터를 항목별로 분리하고, 그룹화할 수 있다. 항목 가중치 계산기(323_2)는 항목 분류기(322_2)로부터 그룹화된 항목 값들을 분석한다. 항목 가중치 계산기(323_2)는 항목 가중치를 생성하기 위한 예측 모델(33)의 파라미터들(항목 파라미터)에 기초하여 항목 값들에 각각 대응되는 항목 가중치들을 생성할 수 있다. 항목 분류기(322_2) 및 항목 가중치 계산기(323_2)는 도 4의 항목 분류기(322_1) 및 항목 가중치 계산기(323_1)와 실질적으로 동일하게 동작할 수 있다.
항목 가중치 적용기(324_2)는 항목 가중치들을 장치 예측 결과들에 적용할 수 있다. 도 4의 가중치 적용기(325_1)와 달리, 항목 가중치 적용기(324_2)는 장치 가중치들을 장치 예측 결과들에 적용하지 않는다. 항목 가중치들의 적용 결과, 항목 가중치 적용기(324_2)는 예측 장치들 각각의 특정 분야(항목)의 신뢰성을 반영한 제1 학습 결과를 생성할 수 있다.
장치 가중치 계산기(325_2)는 항목 가중치들이 적용된 장치 예측 결과들, 즉 제1 학습 결과에 기초하여, 예측 장치들의 특성을 분석한다. 장치 가중치 계산기(325_2)는 장치 가중치를 생성하기 위한 예측 모델(33)의 파라미터들(장치 파라미터)에 기초하여 예측 장치들에 각각 대응되는 장치 가중치들을 생성할 수 있다.
장치 가중치 적용기(326_2)는 장치 가중치들을 제1 학습 결과에 적용할 수 있다. 적용 결과, 장치 가중치 적용기(326_2)는 예측 장치들 각각의 전반적인 신뢰성을 반영한 제2 학습 결과를 생성할 수 있다.
결과 계산기(327_2)는 제2 학습 결과에 기초하여, 앙상블 결과를 생성할 수 있다. 결과 계산기(327_2)는 예측 모델(33)의 파라미터들(앙상블 파라미터)에 기초하여 앙상블 결과를 생성할 수 있다. 가중치 제어기(328_2)는 앙상블 결과에 기초하여, 가중치 그룹에 포함된 파라미터들을 조절할 수 있다. 여기에서 파라미터들은 상술된 항목 파라미터, 장치 파라미터, 및 앙상블 파라미터를 포함한다. 결과 계산기(327_2) 및 가중치 제어기(328_2)는 도 4의 결과 계산기(326_1) 및 가중치 제어기(327_1)와 실질적으로 동일하게 동작할 수 있다.
도 10은 도 9의 학습기를 구체화한 도면이다. 도 10을 참조하면, 학습기(320_2)는 전처리기(321_2), 항목 분류기(322_2), 항목 가중치 계산기(323_2), 항목 가중치 적용기(324_2), 장치 가중치 계산기(325_5), 장치 가중치 적용기(326_2), 결과 계산기(327_2), 및 가중치 제어기(328_2)를 포함할 수 있다. 설명의 편의상, 도 5의 학습기(320_1)와의 차이점을 기준으로 도 10이 설명된다.
학습기(320_2)는 도 3에서 설명된 병합 데이터(MLD)를 수신한다. 병합 데이터(MLD)는 예시적으로 제1 및 제2 장치 예측 결과들(PD1, PD2)을 포함할 수 있다. 제1 장치 예측 결과(PD1)는 제1 항목에 대응되는 제1 항목 값(P11) 및 제2 항목에 대응되는 제2 항목 값(P21)을 포함하고, 제2 장치 예측 결과(PD2)는 제1 항목에 대응되는 제3 항목 값(P12) 및 제2 항목에 대응되는 제4 항목 값(P22)을 포함할 수 있다. 병합 데이터(MLD)는 제1 예측 장치 및 제2 예측 장치를 구별하기 위한 제1 및 제2 식별 정보(I1, I2)를 더 포함할 수 있다.
전처리기(321_2)는 병합 데이터(MLD)를 전처리하여 전처리 데이터(PLD)를 생성할 수 있다. 항목 분류기(322_2)는 전처리 데이터(PLD)를 항목별로 그룹화할 수 있다. 그 결과, 제1 항목에 대응되는 제1 항목 값(E11) 및 제3 항목 값(E12)은 제1 그룹(G1)으로 그룹화될 수 있다. 제2 항목에 대응되는 제2 항목 값(E21) 및 제4 항목 값(E22)은 제2 그룹(G2)으로 그룹화될 수 있다.
항목 가중치 계산기(323_2)는 제1 그룹(G1)에 기초하여, 제1 항목에 대한 제1 그룹 가중치(AD1)를 생성할 수 있다. 항목 가중치 계산기(323_1)는 제2 그룹(G2)에 기초하여, 제2 항목에 대한 제2 그룹 가중치(AD2)를 생성할 수 있다. 제1 그룹 가중치(AD1)는 제1 항목 값(E11)에 대응되는 제1 항목 가중치(A11) 및 제3 항목 값(E12)에 대응되는 제3 항목 가중치(A12)를 포함할 수 있다. 제2 그룹 가중치(AD2)는 제2 항목 값(E21)에 대응되는 제2 항목 가중치(A21) 및 제4 항목 값(E22)에 대응되는 제4 항목 가중치(A22)를 포함할 수 있다. 항목 가중치 계산기(323_2)는 가중치(Wa) 및 바이어스(ba)를 포함하는 항목 파라미터에 기초하여, 항목 가중치들(A11, A21, A12, A22)을 생성할 수 있다. 항목 가중치 계산기(323_2)는 도 6의 인공 신경망을 이용하여 항목 가중치들(A11, A21, A12, A22)을 생성할 수 있다.
항목 가중치 적용기(324_2)는 항목 가중치들(A11, A21, A12, A22)을 전처리 데이터(PLD)에 적용할 수 있다. 적용 결과, 제1 학습 결과(YD)가 생성될 수 있다. 제1 학습 결과(YD)는 제1 내지 제4 항목 값들(E11, E21, E12, E22)에 각각 대응되는 제1 내지 제4 결과들(Y11, Y21, Y12, Y22)을 포함할 수 있다. 제1 결과(Y11)는 제1 항목 값(E11)에 제1 항목 가중치(A11)를 곱한 결과일 수 있다. 제2 결과(Y21)는 제2 항목 값(E21)에 제2 항목 가중치(A21)를 곱한 결과일 수 있다. 제3 결과(Y12)는 제3 항목 값(E12)에 제3 항목 가중치(A12)를 곱한 결과일 수 있다. 제4 결과(Y22)는 제4 항목 값(E22)에 제4 항목 가중치(A22)를 곱한 결과일 수 있다.
장치 가중치 계산기(325_2)는 제1 학습 결과(YD)에 기초하여 장치 가중치(BD)를 생성할 수 있다. 장치 가중치(BD)는 제1 예측 장치에 대응되는 제1 장치 가중치(B1) 및 제2 예측 장치에 대응되는 제2 장치 가중치(B2)를 포함할 수 있다. 장치 가중치 계산기(325_2)는 가중치(Wb) 및 바이어스(bb)를 포함하는 장치 파라미터에 기초하여, 장치 가중치(BD)를 생성할 수 있다. 장치 가중치 계산기(325_2)는 도 7의 인공 신경망을 이용하여 장치 가중치(BD)를 생성할 수 있다.
장치 가중치 적용기(326_2)는 장치 가중치(BD)를 제1 학습 결과(YD)에 적용할 수 있다. 적용 결과, 제2 학습 결과(ZD)가 생성될 수 있다. 제2 학습 결과(ZD)는 제1 내지 제4 항목 값들(E11, E21, E12, E22)에 각각 대응되는 제1 내지 제4 결과들(Z11, Z21, Z12, Z22)을 포함할 수 있다. 제1 결과(Z11)는 제1 결과(Y11)에 제1 장치 가중치(B1)를 곱한 결과일 수 있다. 제2 결과(Z21)는 제2 결과(Y21)에 제1 장치 가중치(B1)를 곱한 결과일 수 있다. 제3 결과(Z12)는 제3 결과(Y12)에 제2 장치 가중치(B2)를 곱한 결과일 수 있다. 제4 결과(Z22)는 제4 결과(Y22)에 제2 장치 가중치(B2)를 곱한 결과일 수 있다.
결과 계산기(327_2)는 제2 학습 결과(ZD)에 기초하여, 앙상블 결과(RD)를 생성할 수 있다. 앙상블 결과(RD)는 제1 항목에 대응되는 제1 예측 결과(R1) 및 제2 항목에 대응되는 제2 예측 결과(R2)를 포함할 수 있다. 결과 계산기(327_2)는 가중치(Wr) 및 바이어스(br)를 포함하는 앙상블 파라미터에 기초하여, 제2 학습 결과(ZD)를 분석하고, 앙상블 결과(RD)를 생성할 수 있다. 결과 계산기(327_2)는 도 8의 인공 신경망을 이용하여 앙상블 결과(RD)를 생성할 수 있다.
가중치 제어기(328_2)는 앙상블 결과(RD)와 비교 결과(CD)를 비교하여, 가중치 그룹에 포함된 파라미터들(Wa, ba, Wb, bb, Wr, br)을 조절할 수 있다. 비교 결과(CD)는 제1 항목에 대응되는 제1 값(C1) 및 제2 항목에 대응되는 제2 값(C2)을 포함할 수 있다.
도 11은 도 2의 예측기의 예시적인 블록도이다. 도 11의 예측기(330_1)는 학습된 예측 모델(33) 및 가중치 그룹에 기초하여, 복수의 예측 장치들로부터 수신된 예측 결과들의 앙상블 결과를 생성하는 예시적인 구성으로 이해될 것이다. 예측기(330_1)는 전처리기(331_1), 항목 분류기(332_1), 항목 가중치 계산기(333_1), 장치 가중치 계산기(334_1), 가중치 적용기(335_1), 및 결과 계산기(336_1)를 포함할 수 있다. 상술한 바와 같이, 예측기(330_1)에 포함된 각 구성들은 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다.
예측기(330_1)는 학습된 예측 모델(33)에 기초하여 병합 데이터(MLD)를 분석하고, 앙상블 결과(RD)를 생성한다. 전처리기(331_1), 항목 분류기(332_1), 항목 가중치 계산기(333_1), 장치 가중치 계산기(334_1), 가중치 적용기(335_1), 및 결과 계산기(336_1)는 도 4의 전처리기(321_1), 항목 분류기(322_1), 항목 가중치 계산기(323_1), 장치 가중치 계산기(324_1), 가중치 적용기(325_1), 및 결과 계산기(326_1)와 실질적으로 동일한 동작을 수행할 수 있다. 그리고, 도 6, 도 7, 및 도 8의 인공 신경망 구조는 각각 항목 가중치 계산기(333_1), 장치 가중치 계산기(334_1), 및 결과 계산기(336_1)에 적용될 수 있다.
도 12는 도 2의 예측기의 예시적인 블록도이다. 도 12의 예측기(330_2)는 학습된 예측 모델(33) 및 가중치 그룹에 기초하여, 복수의 예측 장치들로부터 수신된 예측 결과들의 앙상블 결과를 생성하는 예시적인 구성으로 이해될 것이다. 예측기(330_2)는 전처리기(331_2), 항목 분류기(332_2), 항목 가중치 계산기(333_2), 항목 가중치 적용기(334_2), 장치 가중치 계산기(335_2), 장치 가중치 적용기(336_2), 및 결과 계산기(337_2)를 포함할 수 있다. 상술한 바와 같이, 예측기(330_2)에 포함된 각 구성들은 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다.
예측기(330_1)는 학습된 예측 모델(33)에 기초하여 병합 데이터(MLD)를 분석하고, 앙상블 결과(RD)를 생성한다. 전처리기(331_2), 항목 분류기(332_2), 항목 가중치 계산기(333_2), 항목 가중치 적용기(334_2), 장치 가중치 계산기(335_2), 장치 가중치 적용기(336_2), 및 결과 계산기(337_2)는 도 9의 전처리기(321_2), 항목 분류기(322_2), 항목 가중치 계산기(323_2), 항목 가중치 적용기(324_2), 장치 가중치 계산기(325_5), 장치 가중치 적용기(326_2), 및 결과 계산기(327_2)와 실질적으로 동일한 동작을 수행할 수 있다. 그리고, 도 6, 도 7, 및 도 8의 인공 신경망 구조는 각각 항목 가중치 계산기(333_2), 장치 가중치 계산기(335_2), 및 결과 계산기(337_2)에 적용될 수 있다.
도 13은 도 2의 데이터 관리기의 동작을 설명하기 위한 예시적인 도면이다. 도 13을 참조하면, 데이터 관리기(1310)는 도 3에서 설명한 바와 같이, 시계열 데이터(TD)를 수신한다. 데이터 관리기(310)는 예측 요청과 함께 시계열 데이터(TD)를 제1 내지 제n 예측 장치들(1101~110n)로 제공할 수 있다. 제1 내지 제n 예측 장치들(1101~110n)은 예측 요청에 응답하여, 개별적으로 구축된 예측 모델을 이용하여 시계열 데이터(TD)를 분석할 수 있다. 분석 결과, 제1 내지 제n 예측 장치들(1101~110n)은 각각 제1 내지 제n 장치 예측 결과들(PD1~PDn)을 생성할 수 있다.
제1 내지 제n 예측 장치들(1101~110n)은 각각 제1 내지 제n 장치 예측 결과들(PD1~PDn) 및 제1 내지 제n 상태 정보(SD1~SDn)를 데이터 관리기(1310)로 출력할 수 있다. 제1 내지 제n 상태 정보(SD1~SDn)는 제1 내지 제n 장치 예측 결과들(PD1~PDn)을 계산하기 위한 중간 과정에서 생성된 중간 결과 값들을 포함할 수 있다. 예를 들어, 제1 예측 장치(1101)의 예측 모델은 인공 신경망으로 구현될 수 있다. 인공 신경망은 복수의 레이어들을 포함할 수 있고, 출력 레이어가 제1 장치 예측 결과(PD1)를 출력하기 이전에, 중간 레이어에서 계산된 데이터 값들의 적어도 일부가 제1 상태 정보(SD1)에 포함될 수 있다. 이러한 제1 상태 정보(SD1)는 제1 장치 예측 결과(PD1)의 계산 근거인 노드들에 대한 정보를 포함하므로, 앙상블 결과의 정확도가 향상될 수 있다.
데이터 관리기(1310)는 제1 내지 제n 장치 예측 결과들(PD1~PDn) 및 제1 내지 제n 상태 정보(SD1~SDn)를 병합하여, 병합 데이터(MLD)를 생성할 수 있다. 일례로, 병합 데이터(MLD)는 1 내지 제n 장치 예측 결과들(PD1~PDn), 제1 내지 제n 상태 정보(SD1~SDn), 및 제1 내지 제n 식별 정보(I1~In)가 그룹화된 세트일 수 있다. 병합 데이터(MLD)는 예측 모델(33)의 학습 또는 학습된 예측 모델(33)을 이용한 미래 건강 상태의 예측을 위하여 사용될 수 있다.
도 13에 도시된 바와 달리, 데이터 관리기(1310)는 제1 내지 제n 장치 예측 결과들(PD1~PDn) 대신에, 제1 내지 제n 상태 정보(SD1~SDn)를 수신할 수 있다. 이 경우, 병합 데이터(MLD)는 제1 내지 제n 상태 정보(SD1~SDn)를 포함하고, 제1 내지 제n 상태 정보(SD1~SDn)가 예측 모델(33)의 학습 또는 미래 건강 상태의 예측을 위하여 사용될 수 있다.
도 14a 및 도 14b는 도 13의 상태 정보를 설명하기 위한 도면이다. 도 14a 및 도 14b는 도 13의 제1 내지 제n 예측 장치들(1101~110n) 중 어느 하나에 구축된 예측 모델의 인공 신경망을 예시적으로 도시한다.
도 14a를 참조하면, 인공 신경망은 순환 신경망(Recurrent neural network, RNN) 또는 LSTM(Long short term memory) 등으로 구현될 수 있다. 이 경우, 하나의 레이어가 시간의 흐름에 따라 시계열 데이터(TD)를 수신할 수 있다. 일례로, t-1 시간에 대응되는 시계열 데이터(TD(t-1))가 RNN 레이어에 입력되고, t-1 시간에 대응되는 예측 결과 값(PD(t-1))이 출력될 수 있다. 시계열적 분석을 위하여, t-1 시간에 대응되는 상태 정보(SD(t-1))가 t 시간에 대응되는 예측 결과 값(PD(t))을 생성하는데 사용될 수 있다. RNN 레이어는 t 시간에 대응되는 시계열 데이터(TD(t)) 및 t-1 시간에 대응되는 상태 정보(SD(t-1))에 기초하여 t 시간에 대응되는 예측 결과 값(PD(t))을 계산할 수 있다. 또한, RNN 레이어는 t+1 시간에 대응되는 시계열 데이터(TD(t+1)) 및 t 시간에 대응되는 상태 정보(SD(t))에 기초하여 t+1 시간에 대응되는 예측 결과 값(PD(t+1))을 계산할 수 있다. 상태 정보(SD(t-1), SD(t), SD(t+1))의 적어도 일부는 도 13의 상태 정보에 포함될 수 있다.
도 14b를 참조하면, 인공 신경망은 피드포워드 네트워크(Feedforward Network) 등으로 구현될 수 있다. 이 경우, 인공 신경망은 복수의 레이어들(LI, L1, L2, LO)을 포함할 수 있다. 일례로, 시계열 데이터(TD)가 입력 레이어(LI), 제1 레이어(L1), 제2 레이어(L2), 및 출력 레이어(LO)를 통하여 전파될 수 있다. 시계열 데이터(TD)는 레이어들 사이의 연결로 나타나는 가중치들에 의하여 제1 상태 정보(SD1), 제2 상태 정보(SD2), 및 예측 결과(PD)로 변형될 수 있다. 제1 상태 정보(SD1) 및 제2 상태 정보(SD2)는 각각 제1 레이어(L1) 및 제2 레이어(L2)의 노드들로 나타난다. 제1 상태 정보(SD1) 및 제2 상태 정보(SD2)의 적어도 일부는 도 13의 상태 정보에 포함될 수 있다.
도 15는 도 13의 데이터 관리기의 예시적인 계층 구조를 도시한 도면이다. 상태 정보(SD)는 최종 예측 결과인 장치 예측 결과(PD)를 생성하기 전에 차원 축소되지 않은 상태의 정보이다. 따라서, 상태 정보(SD)의 차원은 장치 예측 결과(PD)의 차원보다 클 수 있다. 도 15는 예시적으로 2개의 항목 값들(P1, P2)을 포함하는 장치 예측 결과(PD) 및 m개의 값들(S1~Sm)을 포함하는 상태 정보(SD)를 도시한다. 도 15의 데이터 관리기(1310_1)는 상태 정보(SD)의 차원을 축소하도록 구현될 수 있다.
도 15를 참조하면, 상태 정보(SD)의 차원을 축소하기 위한 데이터 관리기(1310_1)의 인경 신경망 구조가 예시적으로 도시된다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 데이터 관리기(1310_1)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 인공 신경망은 입력 레이어(LI), 추상화 레이어(LAB), 및 출력 레이어(LO)를 포함할 수 있다. 입력 레이어(LI)는 m개의 차원을 갖는 상태 정보(SD)를 수신한다.
추상화 레이어(LAB)는 상태 정보(SD)의 값들(S1~Sm) 사이의 관계를 고려하여, 장치 예측 결과(PD)와 동일한 차원을 갖는 (2개의 차원을 갖는) 추상화 값들(SC1, SC2)을 계산할 수 있다. 추상화 레이어(LAB)는 상태 정보(SD)를 생성한 예측 장치의 레이어와 유사한 구조를 가질 수 있다. 그리고, 추상화 레이어(LAB)는 예측 모델(33)의 가중치 그룹에 포함된 추상화 파라미터에 기초하여 추상화 값들(SC1, SC2)을 계산할 수 있다. 추상화 파라미터는 데이터 관리기(1310_1)가 포함된 앙상블 예측 장치에서 학습될 수 있다. 출력 레이어(LO)는 계산된 추상화 값들(SC1, SC2)을 정렬하여 출력할 수 있다.
데이터 관리기(1310_1)는 출력된 추상화 값들(SC1, SC2)을 포함하는 상태 결과(SCD)와 장치 예측 결과(PD)를 병합할 수 있다. 병합 결과, 병합 데이터(MLD)가 생성된다. 상태 정보(SD)의 차원 축소 동작이 수행되지 않는 경우, 항목 가중치를 계산하기 위한 도 5의 제1 그룹(G1)은 제1 항목 값(P1) 및 상태 정보(SD) 전체를 포함하고, 제2 그룹(G2)은 제2 항목 값(P2) 및 상태 정보(SD) 전체를 포함할 수 있다. 도 15의 상태 정보(SD)의 차원 축소 동작이 수행되는 경우, 도 5의 제1 그룹(G1)은 제1 항목 값(P1) 및 제1 추상화 값(SC1)을 포함하고, 제2 그룹(G2)은 제2 항목 값(P2) 및 제2 추상화 값(SC2)을 포함할 수 있다. 차원 축소에 따라, 본 발명의 앙상블 예측 장치의 항목 가중치 및 장치 가중치의 계산량이 감소할 수 있다.
도 16은 도 13의 데이터 관리기의 예시적인 계층 구조를 도시한 도면이다. 도 13의 제1 내지 제n 예측 장치들(1101~110n)은 고유의 예측 모델을 통하여 장치 예측 결과를 생성할 수 있다. 제1 내지 제n 예측 장치들(1101~110n) 중 일부는 상태 정보(SD)를 데이터 관리기(1310_2)에 제공할 수 있으나, 다른 일부는 상태 정보(SD)를 데이터 관리기(1310_2)에 제공하지 않을 수 있다. 예를 들어, 특정 예측 장치의 예측 모델이 인공 신경망 이외의 기법으로 구현되어 상태 정보(SD)가 생성되지 않거나, 상태 정보(SD)의 제공을 허용하지 않는 경우, 데이터 관리기(1310_2)는 상태 정보(SD)를 수신하지 못할 수 있다. 도 15의 데이터 관리기(1310_2)는 가상의 상태 정보를 생성하도록 구현될 수 있다.
도 16을 참조하면, 가상의 상태 정보를 생성하기 위한 데이터 관리기(1310_2)의 인공 신경망 구조가 예시적으로 도시된다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 데이터 관리기(1310_2)는 하드웨어로 구현되거나, 펌웨어, 소프트웨어, 또는 이의 조합으로 구현될 수 있다. 인공 신경망은 입력 레이어(LI), 오토 인코더(LAE), 중간 레이어(LM), 추상화 레이어(LAB), 및 출력 레이어(LO)를 포함할 수 있다. 입력 레이어(LI)는 b개의 항목 값들(P1~Pb)을 포함하는 장치 예측 결과(PD)를 수신한다.
우선, 데이터 관리기(1310_2)는 장치 예측 결과(PD)에 대응되는 상태 정보(SD)가 수신되었는지 판단할 수 있다. 판단 결과, 상태 정보(SD)가 수신되지 않은 경우, 상태 정보(SD)의 수신여부를 구분하기 위한 마스크 데이터(MSK)가 생성될 수 있다. 마스크 데이터(MSK)는 상태 정보(SD) 존재할 때 제1 값을 갖고, 상태 정보(SD)가 존재하지 않을 때 제1 값과 다른 제2 값을 가질 수 있다. 마스크 데이터(MSK)는 항목 가중치 및 장치 가중치를 생성할 때, 상태 정보가 가상의 상태 정보인지 판단하도록 제공될 수 있다. 학습기 또는 예측기는 마스크 데이터(MSK)에 기초하여, 가상의 상태 정보에 대한 중요도를 상대적으로 낮게 판단할 수 있다.
오토 인코더(LAE)는 항목 값들(P1~Pb) 사이의 관계를 고려하여, 가상의 상태 정보(S1~Sm)를 계산할 수 있다. 오토 인코더(LAE)는 상태 정보(SD)가 존재하지 않음을 나타내는 마스크 데이터(MSK)에 기초하여 활성화될 수 있다. 오토 인코더(LAE)는 예측 모델(33)의 가중치 그룹에 포함된 인코딩 파라미터에 기초하여 가상의 상태 정보(S1~Sm)를 생성할 수 있다. 인코딩 파라미터는 가중치 및 바이어스를 포함할 수 있고, 가중치 및 바이어스가 적용된 인코딩 함수에 기초하여 가상의 상태 정보(S1~Sm)가 계산될 수 있다. 인코딩 파라미터는 데이터 관리기(1310_1)가 포함된 앙상블 예측 장치에서 학습될 수 있다. 중간 레이어(LM)는 계산된 상태 정보(S1~Sm)를 정렬하여 추상화 레이어(LAB)로 출력할 수 있다.
가상의 상태 정보(S1~Sm)의 차원은 장치 예측 결과(PD)의 차원과 다를 수 있다. 도 15에서 설명한 바와 같이, 추상화 레이어(LAB)는 상태 정보(SD)의 차원을 축소하여, 추상화 값들(SC1~SCb)을 계산할 수 있다. 출력 레이어(LO)는 추상화 값들(SC1~SCb)을 정렬하여 출력할 수 있다. 데이터 관리기(1310_2)는 추상화 값들(SC1~SCb)을 포함하는 상태 결과(SCD), 장치 예측 결과(PD), 및 마스크 데이터(MSK)를 병항할 수 있다. 병합 결과, 병합 데이터(MLD)가 생성된다. 이 경우, 도 5의 제1 그룹(G1)은 제1 항목 값(P1) 및 제1 추상화 값(CS1)을 포함하고, 제2 그룹(G2)은 제2 항목 값(P2) 및 제2 추상화 값(SC2)을 포함할 수 있다.
도 17은 도 2의 학습기의 예시적인 블록도이다. 도 17을 참조하면, 학습기(1320)는 전처리기(1321), 항목 분류기(1322), 항목 가중치 계산기(1323), 장치 가중치 계산기(1324), 가중치 적용기(1325), 결과 계산기(1326), 및 가중치 제어기(1327)를 포함할 수 있다. 전처리기(1321), 항목 분류기(1322), 항목 가중치 계산기(1323), 장치 가중치 계산기(1324), 가중치 적용기(1325), 결과 계산기(1326), 및 가중치 제어기(1327)는 도 4의 전처리기(321_1), 항목 분류기(322_1), 항목 가중치 계산기(323_1), 장치 가중치 계산기(324_1), 가중치 적용기(325_1), 결과 계산기(326_1), 및 가중치 제어기(327_1)에 대응된다. 따라서, 도 4의 학습기(320_1)와의 차이점을 기준으로 도 17의 학습기(1320)가 설명된다.
학습기(1320)는 앙상블 학습 데이터(32)를 수신한다. 앙상블 학습 데이터(32)는 도 13에서 설명된 바와 같이, 장치 예측 결과들 및 상태 정보를 포함한다. 이러한 상태 정보를 처리하기 위하여, 전처리기(1321)는 상태 정보 처리기(1328)를 포함할 수 있다. 상태 정보 처리기(1328)는 상태 정보를 학습에 적합한 데이터로 전처리할 수 있다. 상태 정보 처리기(1328)는 상태 정보에 포함된 값들이 비수치 형식인 경우, 수치 형식으로 변환할 수 있다. 상태 정보 처리기(1328)는 상태 정보의 값들을 특정 수치 범위로 변환할 수 있다. 나아가, 상태 정보 처리기(1328)는 데이터 관리기(1310_1, 1310_2) 대신에, 도 15의 차원 축소 동작 및 도 16의 가상의 상태 정보 생성 동작을 수행할 수도 있다.
항목 분류기(1322)는 도 15 및 도 16에서 설명한 바와 같이, 전처리된 장치 예측 결과들 및 상태 정보를 항목별로 분류할 수 있다. 항목 가중치 계산기(1323)는 장치 예측 결과들 및 상태 정보에 기초하여 항목 가중치를 계산할 수 있다. 장치 가중치 계산기(1324)는 장치 예측 결과들 및 상태 정보에 기초하여 장치 가중치를 계산할 수 있다. 이후의 학습 동작은 도 4에서 설명한 바와 같다. 나아가, 학습기(1320)는 도 9의 학습기 구조로 구현될 수 있으며, 이 경우, 도 9의 전처리기(321_2)가 상태 정보 처리기를 포함할 수도 있다.
도 18은 도 17의 항목 가중치 계산기의 예시적인 계층 구조를 도시한 도면이다. 도 13의 제1 내지 제n 예측 장치들(1101~110n)은 고유의 예측 모델을 통하여 장치 예측 결과를 생성할 수 있다. 제1 내지 제n 예측 장치들(1101~110n) 중 일부는 상태 정보(SD)를 데이터 관리기(1310_2)에 제공할 수 있으나, 다른 일부는 상태 정보(SD)를 데이터 관리기(1310_2)에 제공하지 않을 수 있다. 도 18의 항목 가중치 계산기(1323)는 상태 정보(SD)의 존재여부를 고려하여, 항목 가중치를 생성하도록 구현될 수 있다.
도 18을 참조하면, 항목 가중치 계산기(1323)는 장치 판별기(1323_1) 및 병합기(1323_2)를 포함할 수 있다. 장치 판별기(1323_1)는 항목 분류기(1322)에 의하여 분리된 그룹들을 수신할 수 있다. 예시적으로, 장치 판별기(1323_1)는 제1 항목에 대응되는 제1 그룹(G1)을 수신한 것으로 가정한다. 제1 그룹(G1)은 제1 내지 제n 장치 예측 결과들 각각의 제1 항목 값들(E11~E1n)을 포함할 수 있다.
장치 판별기(1323_1)는 제1 내지 제n 장치 예측 결과들 각각에 대응되는 상태 정보의 존재여부를 판단할 수 있다. 일례로, 제1, 제3, 제4, 및 제n 장치 예측 결과들에 대응되는 상태 정보는 존재하는 것으로 가정하고, 제2, 제5, 제6, 및 제m 장치 예측 결과들에 대응되는 상태 정보는 존재하지 않는 것으로 가정한다. 장치 판별기(1323_1)는 제1, 제3, 제4, 및 제n 장치 예측 결과들과 제2, 제5, 제6, 및 제m 장치 예측 결과들을 분리할 수 있다. 도 16과 같은 마스크 데이터(MSK)가 병합 데이터(MLD)에 포함되는 경우, 장치 판별기(1323_1)는 마스크 데이터(MSK)에 기초하여 상태 정보의 존재여부를 판단할 수 있다.
항목 가중치 계산기(1323)에 항목 가중치를 생성하기 위한 인공 신경망이 구현될 수 있다. 인공 신경망은 상술된 예측 모델(33)의 적어도 일부일 수 있다. 항목 가중치 계산기(1323)의 인공 신경망은 제1 및 제2 입력 레이어들(LI1, LI2), 제1 및 제2 임베딩 레이어들(LE1, LE2), 제1 및 제2 어텐션 레이어들(LA1, LA2), 및 제1 및 제2 출력 레이어들(LO1, LO2)을 포함할 수 있다.
제1 입력 레이어(LI1)는 제1, 제3, 제4, 및 제n 장치 예측 결과들의 제1 항목 값들(E11, E13, E14, E1n)을 수신한다. 제1 입력 레이어(LI1)는 상태 정보를 더 수신한다. 제2 입력 레이어(LI2)는 제2, 제5, 제6, 및 제m 장치 예측 결과들의 제1 항목 값들(E12, E15, E16, E1m)을 수신한다.
제1 임베딩 레이어(LE1)는 제1, 제3, 제4, 및 제n 장치 예측 결과들의 제1 항목 값들(E11, E13, E14, E1n) 및 상태 정보 사이의 관계를 고려하여, 제1 어텐션 레이어(LA1)에 제1 중간 결과를 출력할 수 있다. 제2 임베딩 레이어(LE2)는 제2, 제5, 제6, 및 제m 장치 예측 결과들의 제1 항목 값들(E12, E15, E16, E1m) 사이의 관계를 고려하여 제2 어텐션 레이어(LA2)에 제2 중간 결과를 출력할 수 있다.
제1 어텐션 레이어(LA1)는 제1 중간 결과를 분석하고, 제1, 제3, 제4, 및 제n 장치 예측 결과들의 제1 항목 값들(E11, E13, E14, E1n)에 대한 항목 가중치들(A11, A13, A14, A1n)을 계산할 수 있다. 제1 출력 레이어(LO1)는 이러한 항목 가중치들(A11, A13, A14, A1n)을 병합기(1323_2)로 출력할 수 있다. 제2 어텐션 레이어(LA2)는 제2 중간 결과를 분석하고, 제2, 제5, 제6, 및 제m 장치 예측 결과들의 제1 항목 값들(E12, E15, E16, E1m)에 대한 항목 가중치들(A12, A15, A16, A1m)을 계산할 수 있다. 제2 출력 레이어(LO2)는 이러한 항목 가중치들(A12, A15, A16, A1m)을 병합기(1323_2)로 출력할 수 있다.
병합기(1323_2)는 제1 항목 값들에 대한 모든 수신된 항목 가중치들(A11~A1n)을 병합하여, 제1 그룹 가중치(AD1)를 생성할 수 있다. 즉, 항목 가중치 계산기(1323)는 상태 정보가 추가된 장치 예측 결과들과 상태 정보가 추가되지 않은 장치 예측 결과들을 구분하여 학습 동작을 수행할 수 있다.
예시적으로, 도 18의 계층 구조는 항목 가중치 계산기(1323)뿐만 아니라, 도 18의 장치 가중치 계산기(1324)에도 적용될 수 있다. 나아가, 도 18의 계층 구조는 예측기의 항목 가중치 계산기 및 장치 가중치 계산기에도 적용될 수 있다.
도 19는 도 2의 예측기의 예시적인 블록도이다. 도 19를 참조하면, 예측기(1330)는 는 전처리기(1331), 항목 분류기(1332), 항목 가중치 계산기(1333), 장치 가중치 계산기(1334), 가중치 적용기(1335), 및 결과 계산기(1336)를 포함할 수 있다. 전처리기(1331), 항목 분류기(1332), 항목 가중치 계산기(1333), 장치 가중치 계산기(1334), 가중치 적용기(1335), 및 결과 계산기(1336)는 도 11의 전처리기(331_1), 항목 분류기(332_1), 항목 가중치 계산기(333_1), 장치 가중치 계산기(334_1), 가중치 적용기(335_1), 및 결과 계산기(336_1)에 대응된다. 따라서, 도 11의 예측기(330_1)를 기준으로, 도 19의 예측기(1330)가 설명된다.
예측기(1330)는 병합 데이터(MLD)를 수신한다. 병합 데이터(MLD)는 도 13에서 설명된 바와 같이, 장치 예측 결과들 및 상태 정보를 포함한다. 이러한 상태 정보를 처리하기 위하여, 전처리기(1331)는 상태 정보 처리기(1337)를 포함할 수 있다. 상태 정보 처리기(1337)는 상태 정보를 학습에 적합한 데이터로 전처리할 수 있다. 나아가, 상태 정보 처리기(1337)는 데이터 관리기(1310_1, 1310_2) 대신에, 도 15의 차원 축소 동작 및 도 16의 가상의 상태 정보 생성 동작을 수행할 수도 있다.
항목 분류기(1332)는 도 15 및 도 16에서 설명한 바와 같이, 전처리된 장치 예측 결과들 및 상태 정보를 항목별로 분류할 수 있다. 항목 가중치 계산기(1333)는 장치 예측 결과들 및 상태 정보에 기초하여 항목 가중치를 계산할 수 있다. 장치 가중치 계산기(1334)는 장치 예측 결과들 및 상태 정보에 기초하여 장치 가중치를 계산할 수 있다. 이후의 예측 동작은 도 11에서 설명한 바와 같다. 나아가, 예측기(1330)는 도 12의 학습기 구조로 구현될 수 있으며, 이 경우, 도 12의 전처리기(331_2)가 상태 정보 처리기를 포함할 수도 있다.
도 20은 도 1의 앙상블 예측 장치의 예시적인 블록도이다. 도 20을 참조하면, 앙상블 예측 장치(2300)는 네트워크 인터페이스(2301), 프로세서(2302), 메모리(2303), 스토리지(2304), 및 버스(2305)를 포함할 수 있다. 예시적으로, 앙상블 예측 장치(2300)는 서버로 구현될 수 있으나, 이에 제한되지 않는다.
네트워크 인터페이스(2301)는 도 1의 네트워크(400)를 통하여 단말기(200) 또는 제1 내지 제n 예측 장치들(101~10n)과 통신하도록 구성된다. 네트워크 인터페이스(2301)는 네트워크(400)를 통하여 수신된 데이터를 버스(2305)를 통하여 프로세서(2302), 메모리(2303) 또는 스토리지(2304)에 제공할 수 있다. 네트워크 인터페이스(2301)는 프로세서(2302)에 의한 예측 요청과 함께 시계열 데이터를 제1 내지 제n 예측 장치들(101~10n)로 출력할 수 있다. 또한, 네트워크 인터페이스(2301)는 시계열 데이터에 응답하여 생성된 장치 예측 결과들을 수신할 수 있다.
프로세서(2302)는 앙상블 예측 장치(2300)의 중앙 처리 장치로의 기능을 수행할 수 있다. 프로세서(1220)는 앙상블 예측 장치(2300)의 데이터 관리, 학습, 및 예측을 위하여 요구되는 제어 동작 및 연산 동작을 수행할 수 있다. 예를 들어, 프로세서(2302)의 제어에 따라, 네트워크 인터페이스(2301)는 시계열 데이터를 제1 내지 제n 예측 장치들(101~10n)로 송신하고, 장치 예측 결과들을 제1 내지 제n 예측 장치들(101~10n)로부터 수신할 수 있다. 프로세서(2302)의 제어에 따라, 예측 모델의 가중치 그룹이 조절될 수 있고, 예측 모델을 이용하여 앙상블 결과가 계산될 수 있다. 프로세서(2302)는 메모리(2303)의 연산 공간을 활용하여 동작할 수 있고, 스토리지(2304)로부터 운영체제를 구동하기 위한 파일들 및 어플리케이션의 실행 파일들을 읽을 수 있다. 프로세서(2302)는 운영 체제 및 다양한 어플리케이션들을 실행할 수 있다.
메모리(2303)는 프로세서(2302)에 의하여 처리되거나 처리될 예정인 데이터 및 프로세스 코드들을 저장할 수 있다. 예를 들어, 메모리(2303)는 장치 예측 결과들, 장치 예측 결과들을 관리하기 위한 정보들, 가중치 그룹을 생성하기 위한 정보들, 앙상블 결과를 계산하기 위한 정보들, 및 예측 모델을 구축하기 위한 정보들을 저장할 수 있다. 메모리(2303)는 앙상블 예측 장치(2300)의 주기억 장치로 이용될 수 있다. 메모리(2303)는 DRAM (Dynamic RAM), SRAM (Static RAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.
데이터 관리부(2310), 학습부(2320), 및 예측부(2330)는 메모리(2303)에 로딩되어 실행될 수 있다. 데이터 관리부(2310), 학습부(2320), 및 예측부(2330)는 각각 도 2의 데이터 관리기(310), 학습기(320), 및 예측기(330)에 대응된다. 데이터 관리부(2310), 학습부(2320), 및 예측부(2330)는 메모리(2303)의 연산 공간의 일부일 수 있다. 이 경우, 데이터 관리부(2310), 학습부(2320), 및 예측부(2330)는 펌웨어 또는 소프트웨어로 구현될 수 있다. 예를 들어, 펌웨어는 스토리지(2304)에 저장되고, 펌웨어를 실행 시에 메모리(2303)에 로딩될 수 있다. 프로세서(2302)는 메모리(2303)에 로딩된 펌웨어를 실행할 수 있다.
데이터 관리부(2310)는 프로세서(2302)의 제어 하에 스토리지(2304)에 저장된 원시 학습 데이터에 포함된 시계열 데이터를 로딩하고, 네트워크 인터페이스(2301)를 통하여 제1 내지 제n 예측 장치들(101~10n)로 송신하도록 동작될 수 있다. 데이터 관리부(2310)는 장치 예측 결과들을 병합하여 학습 또는 예측을 위한 병합 데이터를 생성하도록 동작될 수 있다. 학습부(2320)는 프로세서(2302)의 제어 하에 병합 데이터를 전처리하고, 분석하여 가중치 그룹을 생성 및 조절하도록 동작될 수 있다. 예측부(2330)는 프로세서(2302)의 제어 하에 예측 모델에 기초하여 앙상블 결과를 생성하도록 동작될 수 있다.
스토리지(2304)는 운영 체제 또는 어플리케이션들에 의해 장기적인 저장을 목적으로 생성되는 데이터, 운영 체제를 구동하기 위한 파일, 또는 어플리케이션들의 실행 파일 등을 저장할 수 있다. 예를 들어, 스토리지(2304)는 데이터 관리부(2310), 학습부(2320), 및 예측부(2330)의 실행을 위한 파일들을 저장할 수 있다. 스토리지(2304)는 앙상블 예측 장치(2300)의 보조 기억 장치로 이용될 수 있다. 스토리지(2304)는 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.
버스(2305)는 앙상블 예측 장치(2300)의 구성 요소들 사이에서 통신 경로를 제공할 수 있다. 네트워크 인터페이스(2301), 프로세서(2302), 메모리(2303), 및 스토리지(2304)는 버스(2305)를 통해 서로 데이터를 교환할 수 있다. 버스(2305)는 앙상블 예측 장치(2300)에서 이용되는 다양한 유형의 통신 포맷을 지원하도록 구성될 수 있다.
위에서 설명한 내용은 본 발명을 실시하기 위한 구체적인 예들이다. 본 발명에는 위에서 설명한 실시 예들뿐만 아니라, 단순하게 설계 변경하거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명에는 상술한 실시 예들을 이용하여 앞으로 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다.
1000: 건강 상태 예측 시스템
101~10n, 1101~110n: 예측 장치들
200: 단말기
300, 2300: 앙상블 예측 장치
310, 1310, 1310_1, 1310_2: 데이터 관리기
320, 320_1, 320_2, 1320: 학습기
330, 330_1, 330_2, 1330: 예측기

Claims (20)

  1. 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치에 있어서,
    원시 학습 데이터를 제1 예측 장치 및 제2 예측 장치에 제공하고, 상기 제1 예측 장치로부터 상기 원시 학습 데이터에 대응되는 제1 장치 예측 결과를 수신하고, 상기 제2 예측 장치로부터 상기 원시 학습 데이터에 대응되는 제2 장치 예측 결과를 수신하는 데이터 관리기; 및
    상기 제1 장치 예측 결과 및 상기 제2 장치 예측 결과에 기초하여, 상기 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들, 상기 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들, 상기 제1 예측 장치에 대응되는 제1 장치 가중치, 및 상기 제2 예측 장치에 대응되는 제2 장치 가중치를 생성하기 위한 예측 모델의 가중치 그룹을 조절하는 학습기를 포함하되,
    상기 가중치 그룹은, 상기 제1 항목 가중치들을 생성하기 위한 제1 파라미터, 상기 제2 항목 가중치들을 생성하기 위한 제2 파라미터, 및 상기 제1 및 제2 장치 가중치들을 생성하기 위한 제3 파라미터를 포함하는 장치.
  2. 제1 항에 있어서,
    상기 학습기는,
    상기 제1 항목 값들 및 상기 제1 파라미터에 기초하여 상기 제1 항목 가중치들을 계산하고, 상기 제2 항목 값들 및 상기 제2 파라미터에 기초하여 상기 제2 항목 가중치들을 계산하는 항목 가중치 계산기;
    상기 제1 및 제2 장치 예측 결과들 및 상기 제3 파라미터에 기초하여 상기 제1 및 제2 장치 가중치들을 계산하는 장치 가중치 계산기;
    상기 제1 장치 예측 결과에 상기 제1 및 제2 항목 가중치들 및 상기 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 상기 제2 장치 예측 결과에 상기 제1 및 제2 항목 가중치들 및 상기 제2 장치 가중치를 적용하여 제2 결과를 생성하는 가중치 적용기; 및
    상기 제1 및 제2 결과들에 기초하여, 상기 제1 파라미터, 상기 제2 파라미터, 및 상기 제3 파라미터를 조절하는 가중치 제어기를 포함하는 장치.
  3. 제2 항에 있어서,
    상기 학습기는,
    상기 제1 및 제2 장치 예측 결과들의 상기 제1 항목 값들을 그룹화하여 상기 항목 가중치 계산기로 출력하고, 상기 제1 및 제2 장치 예측 결과들의 상기 제2 항목 값들을 그룹화하여 상기 항목 가중치 계산기로 출력하는 항목 분류기를 더 포함하는 장치.
  4. 제2 항에 있어서,
    상기 가중치 그룹은 상기 제1 결과 또는 상기 제2 결과와 동일한 차원을 갖는 앙상블 결과를 생성하기 위한 제4 파라미터를 더 포함하고,
    상기 학습기는,
    상기 제1 및 제2 결과들 및 상기 제4 파라미터에 기초하여, 상기 앙상블 결과를 생성하는 결과 계산기를 더 포함하고,
    상기 가중치 제어기는 상기 앙상블 결과에 기초하여 상기 제1 내지 제4 파라미터들을 조절하는 장치.
  5. 제4 항에 있어서,
    상기 가중치 제어기는 상기 앙상블 결과가 기설정된 비교 결과로부터 기준 오차 이내일 때까지 상기 제1 내지 제4 파라미터들을 조절하는 장치.
  6. 제1 항에 있어서,
    상기 학습기는,
    상기 제1 항목 값들 및 상기 제1 파라미터에 기초하여 상기 제1 항목 가중치들을 계산하고, 상기 제2 항목 값들 및 상기 제2 파라미터에 기초하여 상기 제2 항목 가중치들을 계산하는 항목 가중치 계산기;
    상기 제1 항목 값들에 상기 제1 항목 가중치들을 적용하고, 상기 제2 항목 값들에 상기 제2 항목 가중치들을 적용하여 중간 결과를 생성하는 항목 가중치 적용기;
    상기 중간 결과 및 상기 제3 파라미터에 기초하여 상기 제1 및 제2 장치 가중치들을 계산하는 장치 가중치 계산기;
    상기 중간 결과 중 상기 제1 장치 예측 결과에 대응되는 값에 상기 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 상기 중간 결과 중 상기 제2 장치 예측 결과에 대응되는 값에 상기 제2 장치 가중치를 적용하여 제2 결과를 생성하는 장치 가중치 적용기; 및
    상기 제1 및 제2 결과들에 기초하여, 상기 제1 파라미터, 상기 제2 파라미터, 및 상기 제3 파라미터를 조절하는 가중치 제어기를 포함하는 장치.
  7. 제6 항에 있어서,
    상기 가중치 그룹은 상기 제1 결과 또는 상기 제2 결과와 동일한 차원을 갖는 앙상블 결과를 생성하기 위한 제4 파라미터를 더 포함하고,
    상기 학습기는,
    상기 제1 및 제2 결과들 및 상기 제4 파라미터에 기초하여, 상기 앙상블 결과를 생성하는 결과 계산기를 더 포함하고,
    상기 가중치 제어기는 상기 앙상블 결과에 기초하여 상기 제1 내지 제4 파라미터들을 조절하는 장치.
  8. 제1 항에 있어서,
    상기 데이터 관리기는, 상기 제1 예측 장치로부터 상기 제1 장치 예측 결과를 생성하기 위한 제1 예측 모델의 제1 상태 정보를 더 수신하고, 상기 제2 예측 장치로부터 상기 제2 장치 예측 결과를 생성하기 위한 제2 예측 모델의 제2 상태 정보를 더 수신하고,
    상기 학습기는, 상기 제1 상태 정보 및 상기 제2 상태 정보에 더 기초하여 상기 가중치 그룹을 조절하는 장치.
  9. 제8 항에 있어서,
    상기 데이터 관리기 또는 상기 학습기는, 상기 제1 상태 정보의 차원을 상기 제1 예측 결과의 차원과 동일하게 변환하고, 상기 제2 상태 정보의 차원을 상기 제2 예측 결과의 차원과 동일하게 변환하는 장치.
  10. 제1 항에 있어서,
    상기 데이터 관리기는, 상기 제1 예측 장치로부터 상기 제1 장치 예측 결과를 생성하기 위한 제1 상태 정보를 더 수신하고,
    상기 데이터 관리기 또는 상기 학습기는, 상기 제2 장치 예측 결과에 기초하여 상기 제2 예측 장치에 대응되는 제2 상태 정보를 생성하고,
    상기 학습기는, 상기 제1 상태 정보 및 상기 제2 상태 정보에 더 기초하여 상기 가중치 그룹을 조절하는 장치.
  11. 제10 항에 있어서,
    상기 데이터 관리기 또는 상기 학습기는, 상기 제1 상태 정보에 기초하여 상기 제1 장치 예측 결과에 대응되는 제1 마스크 정보를 생성하고, 상기 제2 상태 정보에 기초하여 상기 제2 장치 예측 결과에 대응되는 제2 마스크 정보를 생성하고,
    상기 학습기는, 상기 제1 마스크 정보 및 상기 제2 마스크 정보에 더 기초하여 상기 가중치 그룹을 조절하는 장치.
  12. 제1 항에 있어서,
    상기 데이터 관리기는, 상기 제1 예측 장치로부터 상기 제1 장치 예측 결과를 생성하기 위한 상태 정보를 더 수신하고,
    상기 학습기는, 상기 상태 정보 및 상기 제1 장치 예측 결과에 기초하여 제1 중간 항목 가중치들을 계산하고, 상기 제2 장치 예측 결과에 기초하여 제2 중간 항목 가중치들을 계산하고, 상기 제1 및 제2 중간 항목 가중치들을 병합하여 상기 제1 및 제2 항목 가중치들을 생성하는 장치.
  13. 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치에 있어서,
    시계열 데이터를 제1 예측 장치 및 제2 예측 장치에 제공하고, 상기 제1 예측 장치로부터 상기 시계열 데이터에 대응되는 제1 장치 예측 결과를 수신하고, 상기 제2 예측 장치로부터 상기 시계열 데이터에 대응되는 제2 장치 예측 결과를 수신하는 데이터 관리기; 및
    상기 제1 장치 예측 결과 및 상기 제2 장치 예측 결과에 기초하여, 상기 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들, 상기 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들, 상기 제1 예측 장치에 대응되는 제1 장치 가중치, 및 상기 제2 예측 장치에 대응되는 제2 장치 가중치를 생성하고, 상기 제1 및 제2 항목 가중치들 및 상기 제1 및 제2 장치 가중치들에 기초하여 상기 제1 및 제2 장치 예측 결과들의 앙상블 결과를 생성하는 예측기를 포함하는 장치.
  14. 제13 항에 있어서,
    상기 제1 항목 가중치들을 생성하기 위한 제1 파라미터, 상기 제2 항목 가중치들을 생성하기 위한 제2 파라미터, 및 상기 제1 및 제2 장치 가중치들을 생성하기 위한 제3 파라미터를 포함하는 예측 모델의 가중치 그룹이 저장되는 스토리지를 더 포함하고,
    상기 예측기는, 상기 제1 항목 값들 및 상기 제1 파라미터에 기초하여 상기 제1 항목 가중치들을 계산하고, 상기 제2 항목 값들 및 상기 제2 파라미터에 기초하여 상기 제2 항목 가중치들을 계산하고, 상기 제1 및 제2 장치 예측 결과들 및 상기 제3 파라미터에 기초하여 상기 제1 및 제2 장치 가중치들을 계산하는 장치.
  15. 제13 항에 있어서,
    상기 예측기는,
    상기 제1 및 제2 장치 예측 결과들의 상기 제1 및 제2 항목 값들을 전처리하는 전처리기;
    상기 전처리된 제1 항목 값들에 기초하여 상기 제1 항목 가중치들을 계산하고, 상기 전처리된 제2 항목 값들에 기초하여 상기 제2 항목 가중치들을 계산하는 항목 가중치 계산기; 및
    상기 전처리된 제1 및 제2 장치 예측 결과들에 기초하여 상기 제1 및 제2 장치 가중치들을 계산하는 장치 가중치 계산기를 포함하는 장치.
  16. 제13 항에 있어서,
    상기 예측기는,
    상기 제1 및 제2 장치 예측 결과들의 상기 제1 및 제2 항목 값들을 전처리하는 전처리기;
    상기 전처리된 제1 항목 값들에 기초하여 상기 제1 항목 가중치들을 계산하고, 상기 전처리된 제2 항목 값들에 기초하여 상기 제2 항목 가중치들을 계산하는 항목 가중치 계산기;
    상기 전처리된 제1 항목 값들에 상기 제1 항목 가중치들을 적용하고, 상기 전처리된 제2 항목 값들에 상기 제2 항목 가중치들을 적용하여 중간 결과를 생성하는 항목 가중치 적용기;
    상기 중간 결과에 기초하여 상기 제1 및 제2 장치 가중치들을 계산하는 장치 가중치 계산기;
    상기 중간 결과 중 상기 제1 장치 예측 결과에 대응되는 값에 상기 제1 장치 가중치를 적용하여 제1 결과를 생성하고, 상기 중간 결과 중 상기 제2 장치 예측 결과에 대응되는 값에 상기 제2 장치 가중치를 적용하여 제2 결과를 생성하는 장치 가중치 적용기; 및
    상기 제1 및 제2 결과들에 기초하여 상기 제1 결과 또는 상기 제2 결과와 동일한 차원을 갖는 상기 앙상블 결과를 생성하는 결과 계산기를 포함하는 장치.
  17. 제13 항에 있어서,
    상기 데이터 관리기는, 상기 제1 예측 장치로부터 상기 제1 장치 예측 결과를 생성하기 위한 제1 예측 모델의 제1 상태 정보를 더 수신하고, 상기 제2 예측 장치로부터 상기 제2 장치 예측 결과를 생성하기 위한 제2 예측 모델의 제2 상태 정보를 더 수신하고,
    상기 예측기는, 상기 제1 상태 정보 및 상기 제2 상태 정보에 더 기초하여 상기 앙상블 결과를 생성하는 장치.
  18. 복수의 예측 장치들로부터 수신된 데이터를 앙상블하는 장치의 동작 방법에 있어서,
    시계열 데이터 및 예측 요청을 제1 예측 장치 및 제2 예측 장치에 제공하는 단계;
    상기 제1 예측 장치로부터 상기 예측 요청에 응답한 상기 시계열 데이터의 제1 장치 예측 결과를 수신하는 단계;
    상기 제2 예측 장치로부터 상기 예측 요청에 응답한 상기 시계열 데이터의 제2 장치 예측 결과를 수신하는 단계;
    상기 제1 및 제2 장치 예측 결과들을 전처리하는 단계;
    상기 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 상기 제1 및 제2 장치 예측 결과들의 제1 항목 값들에 의존하는 제1 항목 가중치들을 생성하는 단계;
    상기 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 상기 제1 및 제2 장치 예측 결과들의 제2 항목 값들에 의존하는 제2 항목 가중치들을 생성하는 단계;
    상기 전처리된 제1 및 제2 장치 예측 결과들에 기초하여, 상기 제1 예측 장치에 대응되는 제1 장치 가중치 및 상기 제2 예측 장치에 대응되는 제2 장치 가중치를 생성하는 단계;
    상기 전처리된 제1 장치 예측 결과에 상기 제1 및 제2 항목 가중치들 및 상기 제1 장치 가중치를 적용하여 제1 결과를 생성하는 단계;
    상기 전처리된 제2 장치 예측 결과에 상기 제1 및 제2 항목 가중치들 및 상기 제2 장치 가중치를 적용하여 제2 결과를 생성하는 단계; 및
    상기 제1 결과 및 상기 제2 결과에 기초하여 앙상블 결과를 생성하는 단계를 포함하는 방법.
  19. 제18 항에 있어서,
    상기 앙상블 결과에 기초하여, 상기 제1 및 제2 항목 가중치들 및 상기 제1 및 제2 장치 가중치들을 생성하기 위한 파라미터를 조절하는 단계를 더 포함하는 방법.
  20. 제18 항에 있어서,
    상기 제1 결과를 생성하는 단계는,
    상기 전처리된 제1 장치 예측 결과의 제1 항목 값, 상기 제1 항목 가중치들 중 상기 제1 장치 예측 결과에 대응되는 제1 항목 가중치, 및 상기 제1 장치 가중치를 곱하는 단계; 및
    상기 전처리된 제1 장치 예측 결과의 제2 항목 값, 상기 제2 항목 가중치들 중 상기 제1 장치 예측 결과에 대응되는 제2 항목 가중치, 및 상기 제1 장치 가중치를 곱하는 단계를 포함하고,
    상기 제2 결과를 생성하는 단계는,
    상기 전처리된 제2 장치 예측 결과의 제1 항목 값, 상기 제1 항목 가중치들 중 상기 제2 장치 예측 결과에 대응되는 제1 항목 가중치, 및 상기 제2 장치 가중치를 곱하는 단계; 및
    상기 전처리된 제2 장치 예측 결과의 제2 항목 값, 상기 제2 항목 가중치들 중 상기 제2 장치 예측 결과에 대응되는 제2 항목 가중치, 및 상기 제2 장치 가중치를 곱하는 단계를 포함하는 방법.

KR1020190124616A 2018-12-06 2019-10-08 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법 KR102557001B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/699,060 US11941513B2 (en) 2018-12-06 2019-11-28 Device for ensembling data received from prediction devices and operating method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180156420 2018-12-06
KR1020180156420 2018-12-06

Publications (2)

Publication Number Publication Date
KR20200069212A true KR20200069212A (ko) 2020-06-16
KR102557001B1 KR102557001B1 (ko) 2023-07-19

Family

ID=71141843

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190124616A KR102557001B1 (ko) 2018-12-06 2019-10-08 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법

Country Status (1)

Country Link
KR (1) KR102557001B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102435865B1 (ko) * 2021-10-28 2022-08-24 (주)새론솔루션 인공지능 어탠션 기법을 활용한 저수지 물관리 및 예측 모형

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170061222A (ko) * 2015-11-25 2017-06-05 한국전자통신연구원 건강데이터 패턴의 일반화를 통한 건강수치 예측 방법 및 그 장치
KR20170140757A (ko) * 2016-06-10 2017-12-21 한국전자통신연구원 임상 의사결정 지원 앙상블 시스템 및 이를 이용한 임상 의사결정 지원 방법
KR20180061552A (ko) * 2016-11-29 2018-06-08 한국전자통신연구원 유사사례 클러스터 기반 미래건강추이 예측모델 생성 장치 및 그 방법
KR20180099193A (ko) * 2017-02-28 2018-09-05 연세대학교 산학협력단 복수의 질병 예측 모델을 이용하여 질병 예측 서비스를 제공하는 방법, 서버 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170061222A (ko) * 2015-11-25 2017-06-05 한국전자통신연구원 건강데이터 패턴의 일반화를 통한 건강수치 예측 방법 및 그 장치
KR20170140757A (ko) * 2016-06-10 2017-12-21 한국전자통신연구원 임상 의사결정 지원 앙상블 시스템 및 이를 이용한 임상 의사결정 지원 방법
KR20180061552A (ko) * 2016-11-29 2018-06-08 한국전자통신연구원 유사사례 클러스터 기반 미래건강추이 예측모델 생성 장치 및 그 방법
KR20180099193A (ko) * 2017-02-28 2018-09-05 연세대학교 산학협력단 복수의 질병 예측 모델을 이용하여 질병 예측 서비스를 제공하는 방법, 서버 및 시스템

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Belciug, "Machine learning solutions in computer-aided medical diagnosis", 2016
Bhatia et al., "Predictive Model for Parkinson's Disease through Naive Bayes Classification", 2017

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102435865B1 (ko) * 2021-10-28 2022-08-24 (주)새론솔루션 인공지능 어탠션 기법을 활용한 저수지 물관리 및 예측 모형

Also Published As

Publication number Publication date
KR102557001B1 (ko) 2023-07-19

Similar Documents

Publication Publication Date Title
Kusiak Convolutional and generative adversarial neural networks in manufacturing
Nunes et al. Challenges in predictive maintenance–A review
US10831577B2 (en) Abnormality detection system, abnormality detection method, abnormality detection program, and method for generating learned model
JP6647573B2 (ja) 人工知能モジュール開発システム及び人工知能モジュール開発統合システム
US20200210895A1 (en) Time series data processing device and operating method thereof
al Zamil et al. Multimedia-oriented action recognition in Smart City-based IoT using multilayer perceptron
KR20190086345A (ko) 시계열 데이터 처리 장치, 이를 포함하는 건강 예측 시스템, 및 시계열 데이터 처리 장치의 동작 방법
Natani et al. Sequential neural networks for multi-resident activity recognition in ambient sensing smart homes
KR102415220B1 (ko) 시계열 데이터 처리 장치 및 이의 동작 방법
US20190180882A1 (en) Device and method of processing multi-dimensional time series medical data
US20210174229A1 (en) Device for ensembling data received from prediction devices and operating method thereof
US20190221294A1 (en) Time series data processing device, health prediction system including the same, and method for operating the time series data processing device
Amirteimoori et al. Developing a new integrated artificial immune system and fuzzy non-discretionary DEA approach
KR102557001B1 (ko) 예측 장치들로부터 수신된 데이터를 앙상블하는 장치 및 이의 동작 방법
Guo et al. A homogeneous ensemble classifier for breast cancer detection using parameters tuning of MLP neural network
US11941513B2 (en) Device for ensembling data received from prediction devices and operating method thereof
Zhao et al. Multiclass anomaly detection in imbalanced structural health monitoring data using convolutional neural network
Iqbal et al. Efficient training of transfer mapping in physics-infused machine learning models of uav acoustic field
Borovska et al. Experimental framework for the investigations in internet of medical imaging things ecosystem
US20220405606A1 (en) Integration device, training device, and integration method
KR102470431B1 (ko) 불규칙한 시간 간격을 갖는 시계열 데이터의 처리 장치 및 이의 동작 방법
KR20190092217A (ko) 데이터를 앙상블하는 장치 및 이의 동작 방법
Oliveira et al. Deep learning library performance analysis on raspberry (IoT device)
KR20220145654A (ko) 불규칙성을 갖는 시계열 데이터를 처리하도록 구성된 시계열 데이터 처리 장치
US20220359082A1 (en) Health state prediction system including ensemble prediction model and operation method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right