KR102182807B1 - Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method - Google Patents

Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method Download PDF

Info

Publication number
KR102182807B1
KR102182807B1 KR1020180158236A KR20180158236A KR102182807B1 KR 102182807 B1 KR102182807 B1 KR 102182807B1 KR 1020180158236 A KR1020180158236 A KR 1020180158236A KR 20180158236 A KR20180158236 A KR 20180158236A KR 102182807 B1 KR102182807 B1 KR 102182807B1
Authority
KR
South Korea
Prior art keywords
gaussian process
neural network
recurrent neural
patient
shared
Prior art date
Application number
KR1020180158236A
Other languages
Korean (ko)
Other versions
KR20200075088A (en
Inventor
양은호
정인교
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020180158236A priority Critical patent/KR102182807B1/en
Publication of KR20200075088A publication Critical patent/KR20200075088A/en
Application granted granted Critical
Publication of KR102182807B1 publication Critical patent/KR102182807B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법이 제시된다. 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치는, 시계열 데이터로부터 이질적인 다수의 환자들 간의 전반적인 경향인 공유 특성을 획득하는 순환 신경망(Recurrent Neural Network, RNN); 및 상기 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 가우시안 프로세스(Gaussian Processes, GP)를 포함하고, 상기 순환 신경망 및 상기 가우시안 프로세스를 통해 상기 시계열 데이터를 개인화되고 신뢰성 있게 예측할 수 있다. A complex model device using a recurrent neural network and a Gaussian process and an operation method thereof are presented. According to an embodiment, a complex model apparatus using a recurrent neural network and a Gaussian process includes: a recurrent neural network (RNN) that obtains a shared characteristic, which is an overall trend among a plurality of heterogeneous patients, from time series data; And a Gaussian Processes (GP) modeling individual characteristics for each patient from the time series data, and the time series data can be personalized and reliably predicted through the recurrent neural network and the Gaussian process.

Description

순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법{APPARATUS OF MIXED EFFECT COMPOSITE RECURRENT NEURAL NETWORK AND GAUSSIAN PROCESS AND ITS OPERATION METHOD}Complex model device using recurrent neural network and Gaussian process and its operation method {APPARATUS OF MIXED EFFECT COMPOSITE RECURRENT NEURAL NETWORK AND GAUSSIAN PROCESS AND ITS OPERATION METHOD}

아래의 실시예들은 의료 분야에서 개인화되고 신뢰성 있는 헬스케어용 예측 모델에 관한 것으로, 더욱 상세하게는 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법에 관한 것이다. The following embodiments relate to a personalized and reliable healthcare prediction model in the medical field, and more particularly, to a complex model apparatus using a recurrent neural network and a Gaussian process, and an operation method thereof.

정밀 의료는 진단, 질병 치료 및 예방과 같은 개인 맞춤형 의료 서비스를 제공하는 것으로, 헬스케어(healthcare)의 궁극적인 목표는 정밀 의료이다. 과거에는 어려웠지만, 요즘에는 머신 러닝과 같은 데이터 중심의 접근 방식이 발전하여 점차 실현 가능해지고 있다. 특히, 환자들의 다양한 임상 기록에 대한 시스템적인 수집 자료인 전자 건강 기록(Electronic Health Record, EHR)이 최근 널리 사용되고 있는데, 이는 머신 러닝 연구자들이 개인 의료 내역에 대한 기록을 기반으로 하여 임상 치료의 질을 개선시키기 위해 다양한 임상적 추론 모델을 연구하도록 만들고 있다.Precision medicine provides personalized medical services such as diagnosis, disease treatment and prevention, and the ultimate goal of healthcare is precision medicine. While difficult in the past, these days, data-driven approaches such as machine learning have evolved and are becoming increasingly feasible. In particular, electronic health records (EHR), which is a systematic collection of patients' various clinical records, have been widely used in recent years, which machine learning researchers have used to determine the quality of clinical treatment based on records of personal medical history. In order to improve it, various clinical reasoning models are being studied.

전자 건강 기록(EHR)을 사용하는 일부 머신 러닝 응용 분야들은 심부전 위험 예측, 패혈증 예측 및 생리적 시계열 분석과 같은 아주 많은 임상 태스크에서 이미 성공을 거두고 있다. 특히, 최근 딥러닝이 크게 성공하여 순환 신경망(Recurrent Neural Network, RNN)이 전자 건강 기록(EHR) 데이터를 대상으로 연구할 때 가장 인기 있는 선택지가 되고 있다 Some machine learning applications using electronic health records (EHR) are already having success in a number of clinical tasks, such as predicting heart failure risk, predicting sepsis, and analyzing physiological time series. In particular, with the recent success of deep learning, recurrent neural networks (RNNs) are becoming the most popular option when studying electronic health record (EHR) data.

그러나, 순환 신경망(RNN)은 각 입력의 예측에 대한 기여도와 불확실성을 파악하는 것이 어렵기 때문에 일반적으로 영상해석능력이 부족하며, 이는 임상 태스크에 치명적이다. 또한, 심층 네트워크(deep network)는 일반적으로 대규모의 파라미터로 인하여 어마어마한 데이터를 필요로 하기 때문에 각 환자에 대한 분리 모델을 학습시키는 것이 매우 어렵다. 따라서, 평균을 잘 예측하는 것이 목적이라면 순환 신경망(RNN)이 합리적인 선택이 될 수 있지만, 예측은 각 환자에 대해서 최적화되지는 않을 것이다. However, since it is difficult to grasp the contribution and uncertainty of each input to the prediction of each input, the recurrent neural network (RNN) generally lacks image analysis capability, which is fatal to the clinical task. In addition, since deep networks generally require enormous data due to large-scale parameters, it is very difficult to train a separate model for each patient. Therefore, if your goal is to predict the mean well, a cyclic neural network (RNN) may be a reasonable option, but the prediction will not be optimized for each patient.

가우시안 프로세스(Gaussian Process, GP)는 시계열에 대해 인기 있는 또 다른 모델이다. 그 확률론적인 특성으로 인해 가우시안 프로세스(GP)는 불확실성이 중요하다는 것을 나타낼 때 가끔 사용된다. 그러나, 대규모의 데이터를 사용하여 연구를 할 때 모든 데이터 지점에 걸쳐 공분산 행렬의 역행렬을 계산해야 하기 때문에(n개의 데이터 지점에 대한 정확한 추론을 위해서

Figure 112018123524954-pat00001
), 성능 감소를 수반하며 이러한 문제를 완화하기 위해 몇몇 근사 방법이 제안되었지만 정확한 가우시안 프로세스(GP)를 모델링하는 것은 계산적으로 매우 어렵다.The Gaussian Process (GP) is another popular model for time series. Due to its probabilistic nature, the Gaussian process (GP) is sometimes used to indicate that uncertainty is important. However, when doing research using large-scale data, it is necessary to calculate the inverse of the covariance matrix over all data points (for accurate inference for n data points
Figure 112018123524954-pat00001
), performance reduction, and some approximation methods have been proposed to alleviate this problem, but it is computationally very difficult to model an accurate Gaussian process (GP).

기존 접근 방법들(예컨대, "one-model-fits-all"이라고 불리는 방법)의 중대한 한계는 예측할 때 관찰되지 않은 환자들의 성질들 중 환자들의 큰 다양성(variability)을 무시하고 관찰된 요인들만 고려한다는 점이다. 이 다양성은 인구학적 요인 및 생물학적 요인에 의한 본질적인 차이 또는 다른 환경적 차이와 같이 다양한 원인으로부터 발생한다. 진단을 수행할 때, 환자들 간의 그러한 본질적인 차이로 인해 두 가지의 동등한 임상적인 특징이 목표 질병의 진행에 대한 동등함을 의미하지 않을 수도 있다. 또한, 각 환자에 대해 불규칙적으로 구분된 데이터 지점들은 순환 신경망(RNN)과 같은 단일한 모델에 적용할 때 문제가 될 수 있다. 그럼에도 불구하고, 이 방법들은 전자 건강 기록(EHR)의 환자 수집 자료를 독립동일분포(independent and identically distributed) 관찰물로만 취급하며 단일한 심층 모델(또는 계산 비용을 줄이기 위해 파라미터들을 공유하는 개인화된 가우시안 프로세스(GP) 모델)을 학습시킨다.A significant limitation of existing approaches (e.g., a method called "one-model-fits-all") is that when forecasting ignores the large variability of patients among unobserved patient properties, only observed factors are considered. Point. This diversity arises from a variety of causes, such as intrinsic differences due to demographic and biological factors or other environmental differences. When performing a diagnosis, such intrinsic differences between patients may not imply that two equivalent clinical features are equivalent to the progression of the target disease. Also, randomly divided data points for each patient can be a problem when applied to a single model such as a recurrent neural network (RNN). Nonetheless, these methods treat patient collections in an electronic health record (EHR) only as independent and identically distributed observations and provide a single in-depth model (or personalized Gaussian sharing parameters to reduce computational cost). Process (GP) model).

이 문제를 설명하기 위해, 도 1을 통해 환자들 간의 이질성(heterogeneities)이 전체적인 추정에 어떻게 영향을 줄 수 있는지 설명한다. 도 1은 일 실시예에 따른 환자들 간의 이질성의 영향을 설명하기 위한 도면이다. In order to explain this problem, it is explained through FIG. 1 how heterogeneities between patients can affect the overall estimation. 1 is a diagram for explaining the influence of heterogeneity among patients according to an exemplary embodiment.

도 1에 도시된 바와 같이, 시뮬레이션에서

Figure 112018123524954-pat00002
를 통해 환자
Figure 112018123524954-pat00003
에 대한 데이터를 생성할 수 있다. 이 함수는 모든 환자들이 공유하고 있는 전반적인 경향(global trend) 뿐만 아니라, 다른 이들과의 편차를 만드는 환자 맞춤(patient-specific) 노이즈
Figure 112018123524954-pat00004
를 포함할 수 있다. 여기서 학습 데이터가 어떤 제한된 기간(x축 5 부분에 도시된 점선 이전)동안 수집된다고 가정할 수 있다. 여기에서의 목적은 보이는 입력 범위(점선 이전)뿐만 아니라, 보이지 않는 입력 범위(점선 이후)에서도 새로운 환자들에 대한 출력을 예측하는 것이다. As shown in Figure 1, in the simulation
Figure 112018123524954-pat00002
Patient through
Figure 112018123524954-pat00003
You can create data for This function not only provides a global trend shared by all patients, but also patient-specific noise that creates deviations from others.
Figure 112018123524954-pat00004
It may include. Here, it can be assumed that the training data is collected for a certain limited period (before the dotted line shown in the x-axis 5). The purpose here is to predict the output for new patients over the visible input range (before the dotted line) as well as the invisible input range (after the dotted line).

이는 모든 모델들이 학습 세트에 포함된 환자들에게 잘 들어맞는다는 것을 보여준다. 그러나 환자들의

Figure 112018123524954-pat00005
다양성에 기인하여 모든 최신 기술들의 새로운 환자에 대한 전반적인 추정이 급격하게 저하되는 것을 볼 수 있다. 이는 전반적인 경향뿐만 아니라 개인적인 특성을 무시하는 것의 위험성을 시사한다.This shows that all models fit well with the patients included in the training set. But the patients
Figure 112018123524954-pat00005
Due to the versatility, it can be seen that the overall estimates of new patients in all state-of-the-art technologies degrade dramatically. This suggests the dangers of ignoring personal characteristics as well as overall tendencies.

Choi, E.; Bahadori, M. T.; Stewart, W.; and Sun, J. 2016a. Doctor AI: Predicting clinical events via recurrent neural networks. In Machine Learning for Healthcare. Choi, E.; Bahadori, M. T.; Stewart, W.; and Sun, J. 2016a. Doctor AI: Predicting clinical events via recurrent neural networks. In Machine Learning for Healthcare. Nickisch, H., and Rasmussen, C. E. 2008. Approximations for binary Gaussian process classification. JMLR 9. Nickisch, H., and Rasmussen, C. E. 2008. Approximations for binary Gaussian process classification. JMLR 9.

실시예들은 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법에 관하여 기술하며, 보다 구체적으로 순환 신경망에 가우시안 프로세스 모델을 결합하여 예측에 대한 불확실성을 제공할 수 있는 기술을 제공한다. The embodiments describe a complex model apparatus using a recurrent neural network and a Gaussian process, and an operation method thereof, and more specifically, provide a technique capable of providing uncertainty about prediction by combining a recurrent neural network with a Gaussian process model.

또한, 실시예들은 환자 별 개인화된 모델을 만드는 프레임워크를 제공함으로써, 데이터에 숨겨진 환자의 특성들을 효율적으로 모델링하여 환자 별 특성에 개인화된 예측을 제공할 수 있는 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법을 제공하는데 있다. In addition, the embodiments provide a framework for creating a personalized model for each patient, thereby efficiently modeling the patient characteristics hidden in the data and providing a personalized prediction for each patient's characteristics, a complex model using a recurrent neural network and a Gaussian process. It is to provide an apparatus and a method of operation thereof.

일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치는, 시계열 데이터로부터 이질적인 다수의 환자들 간의 전반적인 경향인 공유 특성을 획득하는 순환 신경망(Recurrent Neural Network, RNN); 및 상기 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 가우시안 프로세스(Gaussian Processes, GP)를 포함하고, 상기 순환 신경망 및 상기 가우시안 프로세스를 통해 상기 시계열 데이터를 개인화되고 신뢰성 있게 예측할 수 있다. According to an embodiment, a complex model apparatus using a recurrent neural network and a Gaussian process includes: a recurrent neural network (RNN) that obtains a shared characteristic, which is an overall trend among a plurality of heterogeneous patients, from time series data; And a Gaussian Processes (GP) modeling individual characteristics for each patient from the time series data, and the time series data can be personalized and reliably predicted through the recurrent neural network and the Gaussian process.

상기 환자들로부터 얻은 상기 가우시안 프로세스의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 최적화부를 더 포함할 수 있다. It may further include an optimizer for minimizing the sum of the set of negative marginal log-likelihood (negative marginal log-likelihood) of the Gaussian process obtained from the patients.

상기 가우시안 프로세스는, 상대적으로 적은 수의 시간 지점(time point)이 주어졌을 때 상기 개별 특성을 확률적으로 모델링하고, 예측에 대한 불확실성을 제공할 수 있다. The Gaussian process may probabilistically model the individual characteristics when a relatively small number of time points are given, and may provide uncertainty for prediction.

상기 최적화부는, 상기 순환 신경망으로부터 획득한 상기 공유 특성과 상기 가우시안 프로세스로부터 획득한 상기 개별 특성을 이용하여 상기 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화할 수 있다. The optimizer may minimize the sum of the set of negative marginal log-likelihoods by using the shared characteristics obtained from the recurrent neural network and the individual characteristics obtained from the Gaussian process.

상기 시계열 데이터는, 전자 건강 기록(Electronic Health Care, EHR)일 수 있다. The time series data may be an electronic health record (Electronic Health Care, EHR).

상기 순환 신경망을 통해 공유 특성을 획득하고, 상기 가우시안 프로세스를 통해 개별 특성을 반영하여, 상기 각 환자에 대해 단일한 가우시안 프로세스 모델을 구축하며, 상기 단일한 가우시안 프로세스 모델은 환자 별 특성에 개인화된 예측을 제공할 수 있다. A single Gaussian process model is constructed for each patient by acquiring shared characteristics through the recurrent neural network and reflecting individual characteristics through the Gaussian process, and the single Gaussian process model is a personalized prediction for each patient's characteristics. Can provide.

다른 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법은, 순환 신경망(Recurrent Neural Network, RNN)을 사용하여 시계열 데이터로부터 이질적인 환자들 간의 전반적인 경향인 공유 특성을 획득하는 단계; 및 가우시안 프로세스(Gaussian Processes, GP)를 사용하여 상기 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 단계를 포함하고, 상기 순환 신경망 및 상기 가우시안 프로세스를 통해 상기 시계열 데이터를 개인화되고 신뢰성 있게 예측할 수 있다. According to another embodiment, a method of operating a complex model apparatus using a recurrent neural network and a Gaussian process includes: obtaining a shared characteristic, which is an overall trend among heterogeneous patients, from time series data using a recurrent neural network (RNN); And modeling individual characteristics for each patient from the time series data using Gaussian Processes (GP), and the time series data may be personalized and reliably predicted through the recurrent neural network and the Gaussian process. .

실시예들에 따르면 개인화되고 신뢰성 있는 헬스케어용 예측을 위해 순환 신경망에 가우시안 프로세스 모델을 결합하여 예측에 대한 불확실성을 제공할 수 있는 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법을 제공할 수 있다.According to embodiments, a complex model device using a recurrent neural network and a Gaussian process capable of providing uncertainty about prediction by combining a Gaussian process model with a recurrent neural network for personalized and reliable healthcare prediction, and an operation method thereof. I can.

또한, 실시예들에 따르면 환자 별 개인화된 모델을 만드는 프레임워크를 제공함으로써, 데이터에 숨겨진 환자의 특성들을 효율적으로 모델링하여 환자 별 특성에 개인화된 예측을 제공할 수 있는 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법을 제공할 수 있다. In addition, according to embodiments, by providing a framework for creating a personalized model for each patient, the characteristics of patients hidden in the data are efficiently modeled, and a recurrent neural network and a Gaussian process are used to provide personalized predictions for each patient's characteristics. It is possible to provide a composite model device and an operation method thereof.

도 1은 일 실시예에 따른 환자들 간의 이질성의 영향을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치를 나타내는 블록도이다.
도 5는 일 실시예에 따른 멀티-태스크 효과 프레임워크의 그래픽 표현을 나타낸다.
도 6은 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)의 그래픽 표현을 나타낸다.
도 7은 일 실시예에 따른 환자에 대한 개별적인 가우시안 프로세스(GP) 모델의 그래픽 표현을 나타낸다.
1 is a diagram for explaining the influence of heterogeneity among patients according to an exemplary embodiment.
FIG. 2 is a diagram illustrating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.
3 is a flowchart illustrating a method of operating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.
4 is a block diagram illustrating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.
5 shows a graphic representation of a multi-task effect framework according to an embodiment.
6 shows a graphical representation of a composite model (MECGP) using a recurrent neural network and a Gaussian process according to an embodiment.
7 shows a graphical representation of an individual Gaussian process (GP) model for a patient according to one embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the described embodiments may be modified in various forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided to more completely explain the present invention to those of ordinary skill in the art. In the drawings, the shapes and sizes of elements may be exaggerated for clearer explanation.

아래의 실시예들은 진단, 질병 치료 및 예방과 같은 개별적인 맞춤 의료 서비스를 제공할 수 있는 개인화되고 신뢰성 있는 헬스케어용 예측 모델을 제시한다. 제안하는 프레임워크는 전자 건강 기록(Electronic Health Care, EHR)과 같은 시계열(time-series) 데이터로부터 두 가지 상호 보완적인 요소들을 모델링함으로써 개인화되고 신뢰성 있는 예측을 하는 것을 목표로 한다. The following examples present a personalized and reliable healthcare predictive model capable of providing individual personalized medical services such as diagnosis, disease treatment and prevention. The proposed framework aims to make personalized and reliable predictions by modeling two complementary elements from time-series data such as Electronic Health Care (EHR).

이를 위해, 많은 환자들로부터 전반적인 경향들을 추정하는 데 순환 신경망(Recurrent Neural Network, RNN)의 표현 능력(expressive power)을 활용하기 위한 심층 순환 신경망(RNN)과, 상대적으로 적은 수의 시간 지점(time point)이 주어졌을 때 개별적인 시계열을 확률적으로 모델링하기 위한 가우시안 프로세스(Gaussian Processes, GP)에 대한 복합 모델을 제안한다. To this end, a deep recurrent neural network (RNN) to use the expressive power of a recurrent neural network (RNN) to estimate overall trends from many patients, and a relatively small number of time points (time points). point), we propose a complex model for Gaussian Processes (GP) to probabilistically model individual time series.

도 2는 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치를 설명하기 위한 도면이다. FIG. 2 is a diagram illustrating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.

먼저, 전자 건강 기록(EHR)과 같은 의료 데이터의 속성에 대해 살펴보면, 의료 데이터는 매우 노이즈가 많다(이기종). 이는 주로 환자 전체의 인구 통계적, 생물학적 숨겨진 요인들 사이의 거대한 격차 때문에 발생된다. 그리고, 의료 데이터는 시계열 방식으로 수집되며, 이 때 환자의 과거 데이터는 의사에게 유용하다. 또한, 의료 데이터를 통한 치료 (결과)는 신뢰할 수 있어야 한다. First, looking at the properties of medical data, such as electronic health records (EHR), medical data is very noisy (heterogeneous). This is mainly due to the huge gap between the demographic and biological hidden factors across the patient. In addition, medical data is collected in a time series manner, and at this time, the patient's past data is useful to the doctor. In addition, treatment (results) through medical data must be reliable.

의료 데이터의 속성에서 알 수 있듯이 단일 모델은 다양한 (이기종) 환자에게 적합하지 않을 수 있으며, 이질적인 의료 상황에서는 각 환자마다 개별화된 다중 작업 모델이 필요할 수 있다. 그리고, 의료 치료는 신뢰할 수 있어야 하며 딥러닝 방법은 일반적으로 의료 데이터와 잘 작동한다. 그러나 예측 불확실성을 제공할 수 없는 모델은 임상적으로 실용적이지 않을 수 있다. As can be seen from the nature of medical data, a single model may not be suitable for various (heterogeneous) patients, and in heterogeneous medical situations, individualized multi-task models may be required for each patient. And, medical treatment must be reliable, and deep learning methods generally work well with medical data. However, models that cannot provide predictive uncertainty may not be clinically practical.

도 2를 참조하면, 실시예들은 두 모델의 장점을 모두 가지는 순환 신경망(RNN)과 가우시안 프로세스(GP)을 이용한 복합 모델 장치(100)를 제안하며, 이를 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(Mixed-Effect Composite RNN-Gaussian Processes, MECGP)(100)이라 할 수 있다. 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)(100)에서 두 모델(순환 신경망 모델과 가우시안 프로세스 모델)의 보완적인 특성을 활용하여 수많은 이질적인(heterogeneous) 환자들 간의 전반적인 경향(global trend)을 얻기 위해 순환 신경망(RNN)을 사용하고 각 환자 특유의 다양성(variability)을 모델링하기 위해 가우시안 프로세스(GP)를 사용할 수 있다.Referring to FIG. 2, embodiments propose a complex model apparatus 100 using a recurrent neural network (RNN) and a Gaussian process (GP) having the advantages of both models, and this is a complex model using a recurrent neural network and a Gaussian process ( It can be called Mixed-Effect Composite RNN-Gaussian Processes, MECGP (100). Using the complementary characteristics of the two models (the recurrent neural network model and the Gaussian process model) in a composite model (MECGP) using a recurrent neural network and a Gaussian process (100), obtain a global trend among numerous heterogeneous patients. We can use a recurrent neural network (RNN) for this and a Gaussian process (GP) to model each patient-specific variability.

특히, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)(100)은 전자 건강 기록(EHR)과 같은 시계열 데이터에 대해 개인화되고 신뢰 가능한 추론을 제공하는 멀티-태스크 프레임워크이며, 이 프레임워크에서 개별적인(또는 환자 단위의) 프로세스는 두 가지 요소, 즉, ⅰ) 다양한 환자들의 전반적인 경향(global trend)인 공유 특성을 획득하는 요소 및 ⅱ) 각 환자에 대한 특유의 다양성(variability)인 개별 특성을 모델링하는 요소의 합으로 구성된다. In particular, the composite model (MECGP) 100 using a recurrent neural network and a Gaussian process is a multi-task framework that provides personalized and reliable inference for time series data such as electronic health records (EHR). The (or patient-level) process models two factors: i) the one that acquires the shared trait, which is the global trend of various patients, and ii) the individual trait, which is the unique variability for each patient. It is composed of the sum of the elements.

수없이 다양한 유형의 환자를 다루는 전자 건강 기록(EHR)과 같은 시계열 의료 데이터세트를 목표로 두고 있기 때문에, 이 공유 프로세스는 환자들의 전반적인 경향을 습득하기 위해 수식적으로 효과적이어야 한다. 그 뿐만 아니라, 추론 시간뿐만 아니라 학습 시에 수 많은 환자들을 컴퓨터를 사용해 계산적으로 쉽게 다룰 수 있어야 한다. 여기서, 수식적인 능력과 상대적인 계산 효율을 활용하기 위해 순환 신경망(RNN)을 사용한다. 반면, 후자를 위해서 각 프로세스는 어떠한 정보 공유도 없이 각 환자마다 별도로 유지되어야 하기 때문에, 매우 제한적인 수의 데이터 지점이 있을지라도 신뢰 가능해야 한다(여기서 데이터의 각 시간 지점은 환자의 병원 방문을 가리킨다). 따라서, 각 환자의 개별적인 모델로서 가우시안 프로세스(GP)를 선택한다. 가우시안 프로세스(GP)를 사용하여 자연스럽게 예측 불확실성(prediction uncertainty)을 얻을 수 있다. 이 예측 불확실성은 필수적인(mission-critical) 임상 태스크에 대한 신뢰 가능한 예측을 위해 중요한 또 다른 특징이다.Since targeting time-series medical datasets such as Electronic Health Records (EHR) dealing with countless different types of patients, this sharing process must be mathematically effective to learn the overall trends of patients. In addition, it should be able to handle countless patients easily computationally using computers during learning as well as reasoning time. Here, a recurrent neural network (RNN) is used to utilize the mathematical ability and relative computational efficiency. On the other hand, for the latter, each process must be maintained separately for each patient without any information sharing, so it must be reliable even if there are a very limited number of data points (where each time point in the data points to a patient's hospital visit). ). Thus, we select the Gaussian process (GP) as an individual model for each patient. A Gaussian process (GP) can be used to naturally obtain prediction uncertainty. This prediction uncertainty is another important feature for reliable predictions for mission-critical clinical tasks.

대규모 전자 건강 기록(EHR) 데이터세트로부터 얻어진 12개의 통상 질환에 대해, 위험 예측 태스크를 포함하는 분류(classification) 및 회귀(regression) 태스크를 진행하여 제안된 모델(100)을 평가한다. 비교 분석은 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)(100)이 딥러닝 접근 방식을 포함하는 현재의 최신 방법보다 상당히 뛰어나며, 각 환자에 대한 예측 불확실성을 표현할 수 있다는 점을 증명한다.For 12 common diseases obtained from a large electronic health record (EHR) dataset, a classification and regression task including a risk prediction task is performed to evaluate the proposed model 100. The comparative analysis proves that the composite model (MECGP) 100 using a recurrent neural network and a Gaussian process is significantly better than current state-of-the-art methods including deep learning approaches, and is able to express predictive uncertainty for each patient.

일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델은 다음의 세 가지 연구 분야, 가우시안 프로세스 모델의 변형(variants), 심층 모델, 그리고 심층 모델과 가우시안 프로세스(GP)의 결합에서 시작된다. 아래에서는 종합적인 연구에 대해 설명하기보다는 전자 건강 기록(EHR)을 모델링하는 것과 관련이 있는 연구들에 초점을 둔다.The complex model using a recurrent neural network and a Gaussian process according to an embodiment begins with the following three research areas: variants of a Gaussian process model, a deep model, and a combination of a deep model and a Gaussian process (GP). The following focuses on studies related to modeling electronic health records (EHR) rather than describing the comprehensive study.

먼저, 전자 건강 기록(EHR)을 사용하는 다중 가우시안 프로세스(Multiple Gaussian Processes)에 대해 설명한다. First, multiple Gaussian Processes using Electronic Health Record (EHR) will be described.

가우시안 프로세스 모델(Gaussian Process models)은 그 신뢰성 및 다재다능함 덕분에 의료 응용 분야에서 활발히 사용되어 왔다. 그러나 계산 비용의 문제로 인해 다중 가우시안 프로세스(GP)에 대한 개별적인 형성(separate formulation)를 사용하는 것이 더 선호된다. 기존에 웨어러블 디바이스에서 흔히 발생하는 상황인 센서 아티팩트 또는 데이터 불완전성에 의한 누락 값을 해결하기 위해 다중 가우시안 프로세스 형성(multiple GPs formulation)이 제안되었다. 또한, 기존에는 도메인 가우시안 프로세스(GP)를 개별적으로 사용하는 새로운 환자에 군-레벨(population-level) 가우시안 프로세스(GP)를 적용하는 알츠하이머의 진단을 위한 유사한 모델을 사용하자고 제안되었다. 이 모델은 환자들 가우시안 프로세스(GP)의 파라미터가 공유된다는 의미에서 멀티-태스크 학습이라고 이해될 수 있다. 다중 가우시안 프로세스(GP)를 멀티 태스크 학습으로서 사용하는 대부분의 연구들은 개별적인 방법으로 가우시안 프로세스(GP)를 활용하거나 파라미터를 공유하기 위해 가우시안 프로세스(GP)를 활용하는데, 이는 태스크들에 대한 공통적인 지식을 완전히 이용할 수 없다.Gaussian Process models have been actively used in medical applications because of their reliability and versatility. However, it is preferred to use a separate formulation for multiple Gaussian processes (GPs) due to computational cost concerns. In order to solve the missing values due to sensor artifacts or data incompleteness, which are common situations in wearable devices, multiple Gaussian process formulations have been proposed. In addition, it has been proposed to use a similar model for the diagnosis of Alzheimer, which applies a population-level Gaussian process (GP) to new patients individually using the domain Gaussian process (GP). This model can be understood as multi-task learning in the sense that the parameters of the patients Gaussian process (GP) are shared. Most studies using multiple Gaussian process (GP) as multi-task learning utilize Gaussian process (GP) in a separate way or use Gaussian process (GP) to share parameters, which is a common knowledge of tasks. Is not fully available.

계속해서, 전자 건강 기록(EHR)을 사용하는 멀티 태스크 가우시안 프로세스(Multi-task Gaussian Process)에 대해 설명한다. Subsequently, a multi-task Gaussian process using electronic health record (EHR) will be described.

몇몇 모델들은 태스크 특정(take-specific) 모델들 간에 공유된 공분산 함수(covariance functions)를 갖는 멀티-태스크 가우시안 프로세스를 제안하였다. 기존에는 멀티 태스크 학습을 위해 입력이 특정된(input-specific) 공분산 행렬과 태스크가 특정된(task-specific) 공분산 행렬을 결합하여 사용하는 멀티-태스크 가우시안 프로세스(Multi-task Gaussian Process, MTGP)를 제안했다. 의료 상황에 MTGP를 적용하는 실제적인 예는 멀티변수 생리학적 시계열 데이터(multivariate physiological time series data)를 상호 연관시키는(correlate) 것이다. 또한, 기존에는 공분산 행렬이 LMC(Linear Model of Coregionalization) 프레임워크로 구조화되며 개별적인 환자들을 위해 개인화된 가우시안 프로세스(GP)들 간에 공유되는 공분산 함수를 공유하는 또 다른 접근 방법을 제안되었다. 기존에는 순환 신경망(RNN)으로 들어가는 입력 데이터에 대한 전처리를 위해 MTGP를 사용했다. 이 모든 연구들은 공유 공분산 함수들(shared covariance functions)을 기반으로 하는 멀티-태스크 가우시안 프로세스(GP)들인데, 이는 총 공분산 행렬을 너무 크게 만들어서 추론을 정확한 방법으로 다루기 힘들게 만든다. Several models have proposed a multi-task Gaussian process with covariance functions shared among take-specific models. Conventionally, for multi-task learning, a multi-task Gaussian process (MTGP), which uses an input-specific covariance matrix and a task-specific covariance matrix is combined. Suggested. A practical example of applying MTGP to a medical situation is to correlate multivariate physiological time series data. In addition, in the past, the covariance matrix is structured with the Linear Model of Coregionalization (LMC) framework, and another approach has been proposed to share the covariance function shared between personalized Gaussian processes (GPs) for individual patients. Previously, MTGP was used to pre-process the input data entering the recurrent neural network (RNN). All these studies are multi-task Gaussian processes (GPs) based on shared covariance functions, which make the total covariance matrix too large, making the inference difficult to handle in an accurate way.

그러나, 본 실시예에 따라 제안된 모델은 공유 평균 함수(shared mean functions)를 위한 플렉서블 심층 모델을 사용하여 복잡한 구조를 습득하는 차별화된 방법으로 구축되며, 보다 중요한 것은 개별적인 신호를 반영하기 위해 각 환자에 대해 단일한 가우시안 프로세스(GP)를 명확히 구축한다는 점이다.However, the model proposed according to this embodiment is built with a differentiated method of acquiring a complex structure using a flexible deep model for shared mean functions, and more importantly, each patient is used to reflect individual signals. Is that it clearly establishes a single Gaussian process (GP) for.

다음으로, 전자 건강 기록(EHR)을 사용하는 딥러닝 모델 순환 신경망(Recurrent Neural Networks, RNN)에 대해 설명한다. Next, a deep learning model Recurrent Neural Networks (RNN) using electronic health records (EHR) will be described.

최근 전자 건강 기록(EHR)과 같은 시계열 임상 데이터를 사용해 예측 모델을 학습시키는 수단으로서 각광을 받고 있다. (비특허문헌 1)은 전자 건강 기록(EHR)로부터 멀티변수 특징(multivariate feature)들이 주어졌을 때 진단 코드들에 대한 다중 레이블 분류(multi-label classification)를 하기 위해 장단기 메모리(Long-Short Term Memory, LSTM)과 Gated Recurrent Units(GRU) 각각을 갖고 있는 순환 신경망(RNN)을 사용하자고 제안했다. 또한, 기존에는 누락 지시기(missing indicator) 및 붕괴 정보(decaying informativeness)라는 개념을 도입함으로써 모델들의 성능을 더 개선하기 위해 전자 건강 기록(EHR)의 전형적인 성질인 누락 패턴(pattern of missingness)을 활용했다. 또한, 기존에는 해석 가능한 모델을 구축하고, 어느 특징과 병원 방문을 모델이 처리해야 하는지에 대한 주목도를 생성하기 위하여 순환 신경망(RNN)을 사용하자고 제안했으며, 심부전 예측 태스크를 사용하여 그 성능을 증명했다. 순환 신경망(RNN) 모델이 현실세계 임상 데이터세트에 대해 인상적인 성능을 보였지만, 확실성이 부족하거나 예측이 불확실하기 때문에, 필수 안전 임상 태스크에 순환 신경망(RNN) 모델을 이용하는 것은 신중히 수행되어야 한다.Recently, it has been in the spotlight as a means to train predictive models using time-series clinical data such as electronic health records (EHR). (Non-Patent Document 1) is a Long-Short Term Memory for multi-label classification of diagnostic codes when multivariate features are given from an electronic health record (EHR). , LSTM) and Gated Recurrent Units (GRU). In addition, in order to further improve the performance of models by introducing the concept of missing indicator and decaying informativeness, the pattern of missingness, a typical property of electronic health records (EHR), was used. . In addition, it was previously proposed to build an interpretable model and to use a recurrent neural network (RNN) to generate a degree of attention on which features and hospital visits the model should handle, and to prove its performance using a heart failure prediction task. did. Although the recurrent neural network (RNN) model has shown impressive performance on real-world clinical datasets, the use of a recurrent neural network (RNN) model for essential safety clinical tasks must be done with caution because of the lack of certainty or uncertainty of predictions.

그리고, 심층 모델과 가우시안 프로세스(GP)의 결합 순수 결정론적(purely deterministic) 순환 신경망(RNN)에 대해 설명한다. In addition, a purely deterministic recurrent neural network (RNN), which combines the deep model and the Gaussian process (GP), will be described.

예측에 대한 확신을 줄 수 없기 때문에, 베이지안 통계(Bayesian statistics) 분야의 기술들을 사용하여 예측 불확실성을 유도해내는 것에 최근 큰 관심이 쏠리고 있다. 헬스케어 분야에서 이러한 목적을 달성하기 위한 직접적인 노력 중 하나는 심층 아키텍처(deep architectures)와 가우시안 프로세스(Gaussian Process)를 결합하여 두 모델의 장점의 유용성을 얻는 것이다. 기존에는 더 많은 표현 능력을 얻기 위해 가우시안 프로세스(GP)를 심층 네트워크의 출력단에 두었고, 가우시안 프로세스(GP)의 공분산 함수를 수정하는 것과 유사한 개념이 연구되었다. 더 표현력이 좋은 모델(expressive model)을 얻으려는 동일한 목표를 달성하기 위해, 심층 네트워크를 스택 가우시안 프로세스(stacked Gaussian Processes)로 공식화했다. Since it is not possible to give confidence in predictions, there has been a lot of interest recently in inducing prediction uncertainty using techniques in the Bayesian statistics field. One of the direct efforts to achieve this goal in the healthcare field is to combine deep architectures and the Gaussian Process to benefit from the benefits of both models. Previously, a Gaussian process (GP) was placed at the output of a deep network to obtain more expressive power, and a concept similar to that of modifying the covariance function of the Gaussian process (GP) was studied. To achieve the same goal of obtaining a more expressive model, deep networks were formulated as stacked Gaussian Processes.

실시예들은 심층 신경망과 가우시안 프로세스(GP)를 결합하는 것에 목표를 두지만, 제안된 복합 모델은 두 가지 보완적인 모델들의 강점을 사용하는 더 효율적인 방법이다. 특히, 실시예들은 데이터 내의 전반적인 복합 구조(global complex structure)를 얻기 위해서 심층 네트워크를 활용하며, 개별적인 인스턴스(individual instance) 내의 국지적 다양성(local variability)을 얻기 위해 가우시안 프로세스(GP)를 사용할 수 있다.The embodiments aim at combining a deep neural network and a Gaussian process (GP), but the proposed composite model is a more efficient method of using the strengths of two complementary models. In particular, embodiments utilize a deep network to obtain a global complex structure in data, and a Gaussian process (GP) may be used to obtain local variability within an individual instance.

도 3은 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of operating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법은, 순환 신경망(Recurrent Neural Network, RNN)을 사용하여 시계열 데이터로부터 이질적인 환자들 간의 전반적인 경향인 공유 특성을 획득하는 단계(S110), 및 가우시안 프로세스(Gaussian Processes, GP)를 사용하여 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 단계(S120)를 포함하고, 순환 신경망 및 가우시안 프로세스를 통해 시계열 데이터를 개인화되고 신뢰성 있게 예측할 수 있다. Referring to FIG. 3, a method of operating a complex model device using a recurrent neural network and a Gaussian process according to an embodiment is a shared characteristic, which is an overall trend between patients who are heterogeneous from time series data using a recurrent neural network (RNN). Obtaining (S110), and modeling the individual characteristics for each patient from the time series data using a Gaussian process (Gaussian Processes, GP) (S120), and the time series data through a recurrent neural network and a Gaussian process. Personalized and reliably predictable.

또한, 환자들로부터 얻은 가우시안 프로세스의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 최적화 단계(S130)를 더 포함할 수 있다. In addition, an optimization step (S130) of minimizing the sum of a set of negative marginal log-likelihoods of Gaussian processes obtained from patients may be further included.

실시예들은 순환 신경망에 가우시안 프로세스 모델을 결합하여 예측에 대한 불확실성을 제공할 수 있다. 또한, 실시예들은 환자 별 개인화된 모델을 만드는 프레임워크를 제공함으로써, 데이터에 숨겨진 환자의 특성들을 효율적으로 모델링하여 환자 별 특성에 개인화된 예측을 제공할 수 있다.Embodiments may provide uncertainty about prediction by combining a recurrent neural network with a Gaussian process model. In addition, the embodiments provide a framework for creating a personalized model for each patient, thereby efficiently modeling the characteristics of patients hidden in the data and providing personalized predictions for the characteristics of each patient.

아래에서 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법의 각 단계에 대해 보다 구체적으로 설명한다. In the following, each step of a method of operating a complex model device using a recurrent neural network and a Gaussian process will be described in more detail.

일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법은 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치를 통해 하나의 예를 들어 보다 상세히 설명할 수 있다. A method of operating a complex model device using a recurrent neural network and a Gaussian process according to an embodiment may be described in more detail with one example through the complex model device using a recurrent neural network and a Gaussian process according to an embodiment.

도 4는 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치를 나타내는 블록도이다. 4 is a block diagram illustrating a complex model apparatus using a recurrent neural network and a Gaussian process according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치(100)는 순환 신경망(110), 가우시안 프로세스(120) 및 최적화부(130)를 포함하여 이루어질 수 있다. Referring to FIG. 4, a composite model apparatus 100 using a recurrent neural network and a Gaussian process according to an embodiment may include a recurrent neural network 110, a Gaussian process 120, and an optimizer 130.

단계(S110)에서, 순환 신경망(110)은 시계열 데이터로부터 이질적인 다수의 환자들 간의 전반적인 경향인 공유 특성을 획득할 수 있다. 여기서, 시계열 데이터는 전자 건강 기록일 수 있다. In step S110, the recurrent neural network 110 may acquire a shared characteristic, which is an overall trend among a plurality of heterogeneous patients, from the time series data. Here, the time series data may be an electronic health record.

단계(S120)에서, 가우시안 프로세스(120)는 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링할 수 있다. 가우시안 프로세스(120)는 상대적으로 적은 수의 시간 지점(time point)이 주어졌을 때 개별 특성을 확률적으로 모델링하고, 예측에 대한 불확실성을 제공할 수 있다. In step S120, the Gaussian process 120 may model individual characteristics for each patient from time series data. The Gaussian process 120 may probabilistically model individual characteristics when a relatively small number of time points are given, and may provide uncertainty for prediction.

단계(S130)에서, 최적화부(130)는 환자들로부터 얻은 가우시안 프로세스(120)의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화할 수 있다. 최적화부(130)는 순환 신경망(110)으로부터 획득한 공유 특성과 가우시안 프로세스(120)로부터 획득한 개별 특성을 이용하여 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화할 수 있다. In step S130, the optimizer 130 may minimize the sum of a set of negative marginal log-likelihoods of the Gaussian process 120 obtained from patients. The optimizer 130 minimizes the sum of the set of negative marginal log-likelihoods by using the shared characteristics obtained from the recurrent neural network 110 and the individual characteristics obtained from the Gaussian process 120. I can.

이와 같이 순환 신경망(110) 및 가우시안 프로세스(120)를 통해 시계열 데이터를 개인화되고 신뢰성 있게 예측할 수 있다. As described above, time series data can be personalized and reliably predicted through the recurrent neural network 110 and the Gaussian process 120.

즉, 순환 신경망(110)을 통해 공유 특성을 획득하고, 가우시안 프로세스(120)를 통해 개별 특성을 반영함으로써 각 환자에 대해 단일한 가우시안 프로세스 모델을 구축할 수 있으며, 이러한 단일한 가우시안 프로세스 모델은 환자 별 특성에 개인화된 예측을 제공할 수 있다. That is, a single Gaussian process model can be built for each patient by acquiring the shared characteristics through the recurrent neural network 110 and reflecting the individual characteristics through the Gaussian process 120, and such a single Gaussian process model It can provide personalized predictions for star characteristics.

아래에서 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치(100) 및 그 동작 방법에 대해 보다 상세히 설명한다. 여기서, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치(100)는 멀티 태스크(Multi-task) 혼합 효과 모델(Mixed Effect Models)의 프레임워크로 언급될 수 있다. Hereinafter, the complex model apparatus 100 using a recurrent neural network and a Gaussian process and an operation method thereof will be described in more detail. Here, the complex model apparatus 100 using a recurrent neural network and a Gaussian process may be referred to as a framework of multi-task mixed effect models.

일 실시예에 따르면 데이터세트는

Figure 112018123524954-pat00006
명의 환자로 구성되며,
Figure 112018123524954-pat00007
번째 환자는
Figure 112018123524954-pat00008
원소들(또는 방문)의 시퀀스로 표현된다고 가정할 수 있다. 즉,
Figure 112018123524954-pat00009
이며, 대응하는 목표 값
Figure 112018123524954-pat00010
이다. 환자 모델링 시, 예측 태스크의 목표는 이전의 모든 입력 특징들 및 목표 값들인
Figure 112018123524954-pat00011
Figure 112018123524954-pat00012
가 주어졌을 때 각 시간 단계에서 목표 값
Figure 112018123524954-pat00013
를 예측하는 것이다.According to one embodiment, the dataset is
Figure 112018123524954-pat00006
Consists of three patients,
Figure 112018123524954-pat00007
The first patient
Figure 112018123524954-pat00008
It can be assumed that it is expressed as a sequence of elements (or visits). In other words,
Figure 112018123524954-pat00009
And the corresponding target value
Figure 112018123524954-pat00010
to be. When modeling a patient, the goal of the predictive task is all previous input features and target values.
Figure 112018123524954-pat00011
Wow
Figure 112018123524954-pat00012
The target value at each time step given is
Figure 112018123524954-pat00013
Is to predict.

이 문제의 공식화는 질병 진행 모델링(Disease Progression Modeling, DPM) 또는 진단을 위한 학습(Learning to Diagnose, L2D)과 같은 전자 건강 기록(EHR)의 분석 시에 발생하는 몇몇 문제들을 통합시킬 수 있다. 질병 진행 모델링(DPM)에서, 매 시간 지점마다 의료 코드(medical code)에 대한 전개(evolution)를 동시에 예측할 수 있다. 특히, 전자 건강 기록(EHR)에서

Figure 112018123524954-pat00014
개의 서로 다른 의료 코드를 가진다면,
Figure 112018123524954-pat00015
는 각 의료 코드가
Figure 112018123524954-pat00016
-방문 데이터에 나타나는지 여부를 가리키는 바이너리 상태를 암호화할 수 있다. 이 때, 목표는 이전의 모든 이력인
Figure 112018123524954-pat00017
가 주어졌을 때 매 시간
Figure 112018123524954-pat00018
마다
Figure 112018123524954-pat00019
을 예측하는 것이다. 여기에서는 질병 진행 모델링(DPM)의 특수한 케이스라고 생각할 수 있는 진단을 위한 학습(L2D)에서, 방문 시퀀스의 가장 마지막에 특정한 질병을 진단한다.The formulation of this problem can incorporate several problems that arise in the analysis of electronic health records (EHRs), such as disease progression modeling (DPM) or Learning to Diagnose (L2D). In disease progression modeling (DPM), it is possible to simultaneously predict the evolution of the medical code at every point in time. Specifically, in the electronic health record (EHR)
Figure 112018123524954-pat00014
If you have two different medical codes,
Figure 112018123524954-pat00015
Each medical code has
Figure 112018123524954-pat00016
-Binary state indicating whether it appears in the visited data can be encrypted. At this time, the goal is all previous history
Figure 112018123524954-pat00017
Every hour when is given
Figure 112018123524954-pat00018
each
Figure 112018123524954-pat00019
Is to predict. Here, in learning for diagnosis (L2D), which can be considered a special case of disease progression modeling (DPM), a specific disease is diagnosed at the end of the visit sequence.

Figure 112018123524954-pat00020
번째 환자에 대한 함수
Figure 112018123524954-pat00021
를 다음과 같은 멀티-태스크 학습 패러다임에서 두 개의 함수인 공유 함수
Figure 112018123524954-pat00022
와 개별 함수
Figure 112018123524954-pat00023
로 분해하는 접근방식에 대하여 설명할 수 있으며, 다음 식과 같이 나타낼 수 있다.
Figure 112018123524954-pat00020
For the first patient
Figure 112018123524954-pat00021
In the following multi-task learning paradigm:
Figure 112018123524954-pat00022
And individual functions
Figure 112018123524954-pat00023
The decomposition approach can be explained, and can be expressed as the following equation.

[수학식 1][Equation 1]

Figure 112018123524954-pat00024
Figure 112018123524954-pat00024

여기서,

Figure 112018123524954-pat00025
는 임베딩 함수(embedding function)
Figure 112018123524954-pat00026
를 통해 수행한 시간
Figure 112018123524954-pat00027
에서 입력
Figure 112018123524954-pat00028
에 대한 임베딩(embedding)이다.
Figure 112018123524954-pat00029
는 전체적인 다양한 환자들의 전반적인 경향을 모델링하므로 이는 모든 환자들에게 공유될 수 있다. 반면,
Figure 112018123524954-pat00030
는 공통적인(전반적인) 경향인 공통 함수
Figure 112018123524954-pat00031
가 포착하지 않는 (
Figure 112018123524954-pat00032
번째 환자에 대한) 환자-특정 신호를 모델링할 수 있다. 이 때, 특징 학습에 유용한 선택적인 임베딩을 제외하고는 개별 함수
Figure 112018123524954-pat00033
를 통해서 환자들에 대해 어떠한 정보도 공유되지 않는다. 또한, 기존의 베이지안 통계(Bayesian statistics)에서 보통 파라미터 수준의 정보 공유 전략을 사용한다. 즉, 각 태스크에 대한 파라미터 벡터는 공유 파라미터 및 개별적인 파라미터의 합으로 표현될 수 있다. 그러나, [수학식 1]에서, 함수 값은 혼합된다. 두 접근 방식은 오직 공유 함수
Figure 112018123524954-pat00034
와 개별 함수
Figure 112018123524954-pat00035
가 선형 매핑일 때만 등가인데, 이는 일반적인 케이스가 아니다. 프레임워크 [수학식 1]의 그래픽 표현은 도 5와 같이 도시될 수 있다.here,
Figure 112018123524954-pat00025
Is an embedding function
Figure 112018123524954-pat00026
Time taken through
Figure 112018123524954-pat00027
Input from
Figure 112018123524954-pat00028
This is the embedding of
Figure 112018123524954-pat00029
Models the overall trend of the various patients as a whole, so it can be shared among all patients. On the other hand,
Figure 112018123524954-pat00030
Is a common function which is a common (overall) trend
Figure 112018123524954-pat00031
Does not capture (
Figure 112018123524954-pat00032
Patient-specific signals) for the first patient. In this case, individual functions except for optional embeddings useful for feature learning
Figure 112018123524954-pat00033
No information is shared about patients through In addition, the existing Bayesian statistics usually use a parameter-level information sharing strategy. That is, the parameter vector for each task may be expressed as a sum of shared parameters and individual parameters. However, in [Equation 1], the function values are mixed. Both approaches are only shared functions
Figure 112018123524954-pat00034
And individual functions
Figure 112018123524954-pat00035
Is equivalent only when is a linear mapping, which is not a typical case. A graphical representation of the framework [Equation 1] may be illustrated as shown in FIG. 5.

도 5는 일 실시예에 따른 멀티-태스크 효과 프레임워크의 그래픽 표현을 나타낸다. 도 5를 참조하면, [수학식 1]의 개인화된 헬스케어용 멀티-태스크 효과 프레임워크(multi-task effect framework)의 그래픽 표현을 확인할 수 있다. 5 shows a graphic representation of a multi-task effect framework according to an embodiment. Referring to FIG. 5, a graphic representation of the personalized healthcare multi-task effect framework of [Equation 1] can be confirmed.

일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치는 순환 신경망(RNN) 및 가우시안 프로세스의 혼합 효과 복합(Mixed Effect Composite) 모델이다. A composite model apparatus using a recurrent neural network and a Gaussian process according to an embodiment is a mixed effect composite model of a recurrent neural network (RNN) and a Gaussian process.

공유 함수

Figure 112018123524954-pat00036
와 개별 함수
Figure 112018123524954-pat00037
는 고유의 원하는 성질을 가지고 있다. 특히, 개별 함수
Figure 112018123524954-pat00038
를 위해 개인화된 가우시안 프로세스(personalized Gaussian Process)를 채택할 수 있으며, 이를 통해 비교적 적은 수의 데이터 지점(또는 특정 환자의 방문)을 기반으로 하여 (숨겨진 요인들을 통해) 확실하게 개별적인 신호들을 추정할 뿐만 아니라, 예측 불확실성을 자연적으로 제공할 수 있다. 또한, 개인화된 공식을 통해 많은 수의 환자를 다룰 때에도 많은 계산 비용을 피할 수 있는데, 이러한 점은 전체적인 모델을 확장 가능하게 만든다. 특히,
Figure 112018123524954-pat00039
명의 환자가 있고 각 환자마다
Figure 112018123524954-pat00040
번의 방문이 있을 때, 제안된 모델의 정확한 계산 비용은 많은 수의 환자를 다루지 못하는 완전한(full) 가우시안 프로세스(GP)의
Figure 112018123524954-pat00041
가 아니라
Figure 112018123524954-pat00042
이다.Shared function
Figure 112018123524954-pat00036
And individual functions
Figure 112018123524954-pat00037
Has its own desired properties. In particular, individual functions
Figure 112018123524954-pat00038
A personalized Gaussian process can be adopted for this, which not only reliably estimates individual signals (via hidden factors) based on a relatively small number of data points (or visits of a specific patient). Rather, it can naturally provide predictive uncertainty. In addition, a large number of computational costs can be avoided even when dealing with a large number of patients through a personalized formula, which makes the overall model scalable. Especially,
Figure 112018123524954-pat00039
There are 3 patients and each patient
Figure 112018123524954-pat00040
With one visit, the exact computational cost of the proposed model is that of a full Gaussian process (GP) that does not handle a large number of patients.
Figure 112018123524954-pat00041
Not
Figure 112018123524954-pat00042
to be.

공유 함수

Figure 112018123524954-pat00043
에서, MLP 또는 순환 신경망(RNN)과 같이 수식적으로 강력한 "심층 아키텍처(deep architecture)"를 사용할 수 있다. 여기서, MLP는 시그모이드(sigmoid) 활성화 기능을 가진 다중 계층 퍼셉트론 신경 회로망이다. 이는 고차원 의료 데이터의 복잡한 패턴을 포착하기 위한 합리적인 선택이며, 도 1에 도시된 바와 같이, 이를 사용하여 가우시안 프로세스(GP)의 복귀 문제(reverting problem)도 해결할 수 있다. 또한, 심층 모델(순환 신경망)을 이용하는 경우 전자 건강 기록(EHR)의 많은 수의 환자 데이터를 계산적으로 잘 다룰 수 있으며, 이는 모델을 확장 가능하게 만든다.Shared function
Figure 112018123524954-pat00043
In, it is possible to use a mathematically powerful "deep architecture" such as MLP or recurrent neural network (RNN). Here, the MLP is a multi-layer perceptron neural network with a sigmoid activation function. This is a reasonable choice for capturing a complex pattern of high-dimensional medical data, and as shown in FIG. 1, the reverting problem of the Gaussian process (GP) can be solved by using this. In addition, the deep model (recurrent neural network) can handle large numbers of patient data in an electronic health record (EHR) computationally well, which makes the model scalable.

이런 정교한 선택들을 구비한 복합 모델 [수학식 1]은 환자

Figure 112018123524954-pat00044
에 대해 다음과 같은 심층 글로벌 평균 함수(deep global mean function)를 공유하여 개인화된 가우시안 프로세스(GP)로 간소화될 수 있으며, 다음 식과 같이 나타낼 수 있다.The complex model [Equation 1] with these sophisticated options
Figure 112018123524954-pat00044
It can be simplified to a personalized Gaussian process (GP) by sharing a deep global mean function as follows, and can be expressed as the following equation.

[수학식 2][Equation 2]

Figure 112018123524954-pat00045
Figure 112018123524954-pat00045

여기서, 심층 공유 함수

Figure 112018123524954-pat00046
Figure 112018123524954-pat00047
로 이름이 바뀌는데, 이는 가우시안 프로세스(GP)에 대한 평균 함수이다.
Figure 112018123524954-pat00048
는 개별적인 프로세스인 개별 함수
Figure 112018123524954-pat00049
로부터의 공분산 함수이다. 모델의 일부분이 결정론적 매핑(deterministic mapping)으로 표현되었지만 [수학식 2]의 그래픽 표현은 도 6과 같이 도시될 수 있다. 도 6은 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)의 그래픽 표현을 나타낸다.Here, the deep shared function
Figure 112018123524954-pat00046
Is
Figure 112018123524954-pat00047
Renamed to, which is the average function for the Gaussian process (GP).
Figure 112018123524954-pat00048
Is an individual function that is an individual process
Figure 112018123524954-pat00049
Is the covariance function from Although a part of the model is expressed by deterministic mapping, a graphic representation of [Equation 2] may be illustrated as shown in FIG. 6. 6 shows a graphical representation of a composite model (MECGP) using a recurrent neural network and a Gaussian process according to an embodiment.

도 7은 일 실시예에 환자에 대한 개별적인 가우시안 프로세스(GP) 모델의 그래픽 표현을 나타낸다.7 shows a graphical representation of an individual Gaussian Process (GP) model for a patient in one embodiment.

도 7을 참조하면, 일 실시예에 따른 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)에서 환자에 대한 개별적인 가우시안 프로세스(GP) 모델의 그래픽 표현을 나타낸다. Referring to FIG. 7, a graphical representation of an individual Gaussian process (GP) model for a patient in a composite model (MECGP) using a recurrent neural network and a Gaussian process according to an embodiment is shown.

[수학식 2]의 프레임워크는 가우시안 프로세스(GP)에 대한 평균 함수

Figure 112018123524954-pat00050
가 구체적인 형태를 갖도록 제한하지 않는다. 그러나, 전자 건강 기록(EHR)의 순차적인 특징을 완전히 다루기 위하여 다음 식과 같이 순환 신경망(RNN)에 집중할 수 있다.The framework of [Equation 2] is an average function for a Gaussian process (GP)
Figure 112018123524954-pat00050
Is not limited to have a specific shape. However, in order to fully address the sequential features of the electronic health record (EHR), one can focus on the recurrent neural network (RNN) as shown in the following equation.

[수학식 3][Equation 3]

Figure 112018123524954-pat00051
Figure 112018123524954-pat00051

여기서,

Figure 112018123524954-pat00052
는 각각 임베딩(embedding), 숨겨진 순환 유닛(hidden recurrent units) 및 출력(outputs)을 위한 (모든 환자들이 공유하고 있는) 순환 신경망(RNN)의 가중 파라미터이며, 이는 도 3과 같이 도시될 수 있다. here,
Figure 112018123524954-pat00052
Is a weighting parameter of a recurrent neural network (RNN) (shared by all patients) for embedding, hidden recurrent units and outputs, respectively, which can be illustrated as in FIG. 3.

나아가,

Figure 112018123524954-pat00053
가 가우시안 프로세스라고 가정하여 제안된 프레임워크를 정규화(generalize)할 수 있다. 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)이라고 불리는 정규화된 프레임워크에서, 멀티-태스크 학습을 위한 기존의 많은 기초 모델이 이 프레임워크에서 실제적으로 표현될 수 있는지 검토할 수 있다. Furthermore,
Figure 112018123524954-pat00053
Assuming that is a Gaussian process, the proposed framework can be normalized. In a normalized framework called composite model (MECGP) using recurrent neural networks and Gaussian processes, it is possible to examine whether many existing basic models for multi-task learning can be represented in this framework.

아래에서는 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)의 최적화를 설명한다. The following describes the optimization of a complex model (MECGP) using a recurrent neural network and a Gaussian process.

학습 목표는 학습 환자들로부터 얻은 가우시안 프로세스(GP) 모델의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 것이며, 이는 두 개의 파라미터 집합

Figure 112018123524954-pat00054
Figure 112018123524954-pat00055
를 찾아낼 수 있다. 전자의 파라미터 집합
Figure 112018123524954-pat00056
은 글로벌 공유 평균 함수(global shared mean function)에서 얻어지며, 후자의 파라미터 집합
Figure 112018123524954-pat00057
은 개인화된 가우시안 프로세스(GP)에서 얻어진다. 제안된 모델은 회귀(regression) 및 분류(classification) 태스크 모두에 범용적으로 적용 가능하기 때문에 최적화 절차를 추상적으로 제시한다. 이 때, 학습 목표는 다음 식을 최소화하는 것이다.The learning goal is to minimize the sum of the set of negative marginal log-likelihoods of the Gaussian process (GP) model obtained from the learners, which is a set of two parameters.
Figure 112018123524954-pat00054
And
Figure 112018123524954-pat00055
Can be found. Former parameter set
Figure 112018123524954-pat00056
Is obtained from the global shared mean function, the latter parameter set
Figure 112018123524954-pat00057
Is obtained in a personalized Gaussian process (GP). Since the proposed model is universally applicable to both regression and classification tasks, the optimization procedure is presented abstractly. At this time, the learning goal is to minimize the following equation.

[수학식 4] [Equation 4]

Figure 112018123524954-pat00058
Figure 112018123524954-pat00058

여기서,

Figure 112018123524954-pat00059
는 글로벌 평균 함수의 일반화(regularization)를 위한 하이퍼 파라미터이고,
Figure 112018123524954-pat00060
는 최소화를 위한 개별적인 가우시안 프로세스(GP)의 손실이다. 가우시안 가능도(Gaussian likelihood)의 경우,
Figure 112018123524954-pat00061
는 개별적인 가우시안 프로세스(GP)의 음경계 로그-가능도이며, 다음 식과 같이 나타낼 수 있다. here,
Figure 112018123524954-pat00059
Is a hyperparameter for regularization of the global average function,
Figure 112018123524954-pat00060
Is the loss of the individual Gaussian process (GP) for minimization. For Gaussian likelihood,
Figure 112018123524954-pat00061
Is the penile system log-likelihood of an individual Gaussian process (GP), and can be expressed as the following equation.

[수학식 5][Equation 5]

Figure 112018123524954-pat00062
Figure 112018123524954-pat00062

여기서,

Figure 112018123524954-pat00063
는 각 환자에 대한
Figure 112018123524954-pat00064
가 주어졌을 때의 완전 공분산 행렬(full covariance matrix)이다. 비가우시안 가능도(non-Gaussian likelihood)의 경우, 손실은 변분 근사(variational approximation)에 의한 변분 하한 경계(variational lower bound)로 계산되거나 시뮬레이션에 의할 수 있다(비특허문헌 2). 두 개의 파라미터 집합에 대한 [수학식 4]의 그래디언트(gradient)는 다음과 같이 체인 규칙(chain rule)에 의해 유도될 수 있으며, 다음 식과 같이 나타낼 수 있다.here,
Figure 112018123524954-pat00063
Is for each patient
Figure 112018123524954-pat00064
Is the full covariance matrix given In the case of non-Gaussian likelihood, the loss can be calculated as a variational lower bound by a variational approximation or can be by simulation (Non-Patent Document 2). The gradient of [Equation 4] for the two parameter sets can be derived by a chain rule as follows, and can be expressed as the following equation.

[수학식 6][Equation 6]

Figure 112018123524954-pat00065
Figure 112018123524954-pat00065

여기서, 표현의 간결함을 위해 파라미터의 의존성과 일반화 항(regularization term)을 쓰지 않고 있다. 평범한(vanilla) 순환 신경망(RNN)의 경우와 달리, [수학식 6]에 있는 파라미터 집합

Figure 112018123524954-pat00066
의 그래디언트(gradient) 계산은 추가적인
Figure 112018123524954-pat00067
항을 포함하며, 이는 조금 더 복잡한 계산을 야기한다.Here, parameter dependency and regularization terms are not used for the sake of simplicity of expression. Unlike in the case of a vanilla recurrent neural network (RNN), the parameter set in [Equation 6]
Figure 112018123524954-pat00066
The gradient calculation of
Figure 112018123524954-pat00067
Term, which leads to slightly more complex calculations.

대체 방식으로 파라미터를 학습하기 위한 전체적인 알고리즘은 다음과 같이 요약될 수 있다. The overall algorithm for learning parameters in an alternative way can be summarized as follows.

[표 1][Table 1]

Figure 112018123524954-pat00068
Figure 112018123524954-pat00068

표 1을 참조하면, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델(MECGP)의 최적화를 나타내는 알고리즘 1이다. Referring to Table 1, Algorithm 1 shows the optimization of a complex model (MECGP) using a recurrent neural network and a Gaussian process.

개인화된 공식화를 설정함으로써 가우시안 프로세스(GP)의 높은 계산 비용을 줄일 수 있다. 또한, 공유 평균 함수(shared mean function)으로서의 심층 아키텍처는 일반적인 역전파 알고리즘(back-propagation algorithm)을 통해 효율적으로 갱신될 수 있다. By setting up a personalized formulation, the high computational cost of the Gaussian process (GP) can be reduced. In addition, the deep architecture as a shared mean function can be efficiently updated through a general back-propagation algorithm.

[수학식 2]에서 개별적인 가우시안 프로세스(GP)의 추론은 가우시안 프로세스(GP) 추론의 일반적인 절차를 따른다. 간단함을 위해서, 가우시안 가능도를 통해 마지막 예측이 만들어지는 방법만을 설명한다. 가우시안 프로세스(GP)를 사용한 분류 문제를 위해 개발된 것과 완전히 동일한 근사 기술들은 이 케이스에도 마찬가지로 완벽히 적용될 수 있다. In Equation 2, the inference of the individual Gaussian process (GP) follows the general procedure of the Gaussian process (GP) inference. For simplicity, we only describe how the final prediction is made through Gaussian likelihood. The exact same approximation techniques developed for the classification problem using the Gaussian process (GP) can be applied perfectly to this case as well.

새로운 환자

Figure 112018123524954-pat00069
에 대해
Figure 112018123524954-pat00070
를 예측하려 한다고 가정한다. 명료성을 위해 데이터에서 환자 인덱스
Figure 112018123524954-pat00071
가 제거된 대응하는 데이터
Figure 112018123524954-pat00072
Figure 112018123524954-pat00073
가 주어진다. 우선 개인화된 추론을 위해 새로운 가우시안 프로세스(GP)를 둔다. 이후, 시계열 입력 특징을 임베딩하기(embed) 위하여 모든
Figure 112018123524954-pat00074
에 대해
Figure 112018123524954-pat00075
라고 표현되는 순환 신경망(RNN)의 모든 숨겨진 상태를 계산한다. 숨겨진 상태 및 대응하는 목표 값을 사용해서, MLE에 의한 새로운 가우시안 프로세스(GP)의 파라미터를 갱신하는데, 최적화 프로세스에서 수행했지만 평균 함수가 고정되었기 때문에 이를 적응 프로세스(adaptation process)라고 부른다.
Figure 112018123524954-pat00076
에 대한 예측 분포(predictive distribution)는
Figure 112018123524954-pat00077
이며, 다음 식과 같이 나타낼 수 있다.New patient
Figure 112018123524954-pat00069
About
Figure 112018123524954-pat00070
Suppose you want to predict Patient index in data for clarity
Figure 112018123524954-pat00071
Corresponding data has been removed
Figure 112018123524954-pat00072
And
Figure 112018123524954-pat00073
Is given. First, we put a new Gaussian process (GP) for personalized reasoning. After that, to embed all the time series input features
Figure 112018123524954-pat00074
About
Figure 112018123524954-pat00075
Compute all hidden states of the recurrent neural network (RNN), expressed as. Using the hidden state and the corresponding target value, the parameters of the new Gaussian process (GP) are updated by the MLE, which is called the adaptation process because it was performed in the optimization process but the average function is fixed.
Figure 112018123524954-pat00076
The predictive distribution for is
Figure 112018123524954-pat00077
And can be expressed as the following equation.

[수학식 7][Equation 7]

Figure 112018123524954-pat00078
Figure 112018123524954-pat00078

여기서,

Figure 112018123524954-pat00079
이며
Figure 112018123524954-pat00080
이다. 예측은 순차적인 방법으로 수행될 수 있으며, 이는 적응 프로세스를 통하여 어느 환자의 임의의 시간 지점에 대한 출력을 예측할 수 있다는 것을 의미한다. 첫 번째 시간 지점
Figure 112018123524954-pat00081
에서의 예측은 글로벌 평균 함수(global mean function)에 의해 결정론적으로(deterministically) 수행될 수 있고 이는 평균적인 예측이라는 것을 의미한다. 시간 지점
Figure 112018123524954-pat00082
를 증가시킬수록 환자에 대한 더 많은 증거를 가질 수 있고 개선된 개인화된 예측을 할 수 있다.here,
Figure 112018123524954-pat00079
Is
Figure 112018123524954-pat00080
to be. The prediction can be performed in a sequential manner, which means that the output for any time point of any patient can be predicted through the adaptation process. First time point
Figure 112018123524954-pat00081
The prediction at can be performed deterministically by a global mean function, which means that it is an average prediction. Time point
Figure 112018123524954-pat00082
The more you increase the, the more evidence you have about the patient and you can make improved personalized predictions.

앞에서 설명한 손실로서 근사 예측(approximate predictions)이 분류 문제(classification problem)의 비가우시안 가능도(non-Gaussian likelihood)를 사용하여 유도될 수 있다. 위에서 설명된 가우시안 가능도에서 쓰인 표현으로, 출력

Figure 112018123524954-pat00083
Figure 112018123524954-pat00084
에 따라 적절히 정의된 어떤 분포
Figure 112018123524954-pat00085
를 따른다(즉,
Figure 112018123524954-pat00086
일 때는 정규 분포이며,
Figure 112018123524954-pat00087
일 때는 베르누이 분포(Bernoulli distribution)이다). 그 후, 시험 케이스에 대한 가우시안 프로세스(GP)의 잠재 함수(latent function)의 분포
Figure 112018123524954-pat00088
는 다음 식과 같이 주어질 수 있다.As the loss described above, approximate predictions can be derived using the non-Gaussian likelihood of the classification problem. The expression used in the Gaussian likelihood described above, and the output
Figure 112018123524954-pat00083
Is
Figure 112018123524954-pat00084
Any distribution properly defined according to
Figure 112018123524954-pat00085
Follows (i.e.
Figure 112018123524954-pat00086
Is a normal distribution,
Figure 112018123524954-pat00087
When is, it is a Bernoulli distribution). Then, the distribution of the latent function of the Gaussian process (GP) for the test case
Figure 112018123524954-pat00088
Can be given as the following equation.

[수학식 8][Equation 8]

Figure 112018123524954-pat00089
Figure 112018123524954-pat00089

여기서, 베이즈 규칙(Baye's rule)에 의해

Figure 112018123524954-pat00090
이다. 마지막으로,
Figure 112018123524954-pat00091
에 대한 예측 분포(predictive distribution)는 다음 식과 같이 나타낼 수 있다.Here, by Baye's rule
Figure 112018123524954-pat00090
to be. Finally,
Figure 112018123524954-pat00091
The predictive distribution for can be expressed as the following equation.

[수학식 9][Equation 9]

Figure 112018123524954-pat00092
Figure 112018123524954-pat00092

여기서,

Figure 112018123524954-pat00093
는 문제의 종류에 따라
Figure 112018123524954-pat00094
가 주어졌을 때
Figure 112018123524954-pat00095
에 대해 적절히 설계된 가능도 함수이다. 회귀(regression)의 경우, 위에서 제시한 바와 같이,
Figure 112018123524954-pat00096
가 가우시안을 따를 때 [수학식 8] 및 [수학식 9]에 대해 분석적 형태를 취한다. 반면, 분류(classification) 문제의 경우, 가능도 함수는
Figure 112018123524954-pat00097
과 같은 시그모이드(sigmoid) 함수로 설계되며, 이는 [수학식 8] 및 [수학식 9]에서의 적분을 분석적으로 아주 다루기 힘들게 만든다. here,
Figure 112018123524954-pat00093
Depending on the type of problem
Figure 112018123524954-pat00094
When is given
Figure 112018123524954-pat00095
Is a properly designed likelihood function for. In the case of regression, as suggested above,
Figure 112018123524954-pat00096
When g follows Gaussian, it takes an analytic form for [Equation 8] and [Equation 9]. On the other hand, in the case of the classification problem, the likelihood function is
Figure 112018123524954-pat00097
It is designed with a sigmoid function such as, which makes the integral in [Equation 8] and [Equation 9] analytically difficult to handle.

따라서, 라플라스 근사(Laplace approximation), 변분법(variational method) 또는 마르코프 체인 몬테 카를로(Markov chain Monte Carlo, MCMC) 근사와 같은 사후

Figure 112018123524954-pat00098
에 대한 근사 방법을 필요로 한다(비특허문헌 2).Thus, post-mortem approximation such as Laplace approximation, variational method, or Markov chain Monte Carlo (MCMC) approximation
Figure 112018123524954-pat00098
It requires an approximation method for (Non-Patent Document 2).

이상과 같이, 실시예들은 순환 신경망과 가우시안 프로세스를 결합한 복합 모델로서 의료 분야에서 신뢰 가능하고 개인화된 예측을 제공할 수 있는 기계학습 모델이다. 데이터 기반의 기계학습 모델은 방대한 데이터를 바탕으로 많은 분야에서 뛰어난 성과를 보이고 있으며, 특히 기계학습 분야 중에서도 최근 각광받고 있는 분야는 인공신경망을 활용한 딥러닝(심층 학습) 기법이다. 의료분야에서도 환자의 모든 정보가 기록되는 전자 건강 기록(HER) 데이터를 바탕으로 양질의 효율적인 의료 서비스를 제공하기 위해 딥러닝적인 기법들을 활용한 많은 시도가 이루어지고 있다. 하지만 의료분야는 다른 분야들에 비해서 딥러닝 기법을 적용하기 쉽지 않은데, 그 중 가장 큰 이유는 해당 기법들은 예측에 대한 불확실성을 제공할 수 없기 때문이다. As described above, the embodiments are machine learning models capable of providing reliable and personalized prediction in the medical field as a complex model combining a recurrent neural network and a Gaussian process. Data-based machine learning models are showing excellent results in many fields based on vast amounts of data, and a field that has recently been in the spotlight among machine learning fields is a deep learning (deep learning) technique using artificial neural networks. In the medical field, many attempts have been made using deep learning techniques to provide high-quality and efficient medical services based on electronic health record (HER) data in which all patient information is recorded. However, it is not easy to apply deep learning techniques in the medical field compared to other fields, and the biggest reason is that these techniques cannot provide uncertainty about prediction.

따라서 실시예들은 순환 신경망에 예측에 대한 불확실성을 제공할 수 있는 가우시안 프로세스 모델을 결합하여 이러한 딥러닝의 단점을 보완하였다. 또한, 환자 별 개인화된 모델을 만드는 프레임워크를 제안하여, 데이터에 숨겨진 환자의 특성들을 효율적으로 모델링하여 환자 별 특성에 개인화된 예측을 제공할 수 있다. 해당 모델은 실제 의료 데이터를 활용하여 일반 순환 신경망 및 다른 최신의 기계학습 모델과의 비교를 통해 우수성을 입증하였다.Accordingly, the embodiments complemented the shortcomings of deep learning by combining a Gaussian process model capable of providing prediction uncertainty to a recurrent neural network. In addition, by proposing a framework for creating personalized models for each patient, it is possible to efficiently model patient characteristics hidden in the data and provide personalized predictions for each patient characteristic. This model proved its excellence through comparison with general recurrent neural networks and other modern machine learning models using real medical data.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (12)

시계열 데이터로부터 이질적인 다수의 환자들 간의 전반적인 경향인 공유 특성을 획득하는 순환 신경망(Recurrent Neural Network, RNN); 및
상기 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 가우시안 프로세스(Gaussian Processes, GP)
를 포함하고,
상기 순환 신경망 및 상기 가우시안 프로세스의 멀티-태스크 학습을 위해 각 환자에 대한 시계열 데이터로 이루어진 함수를 공유 함수와 개별 함수의 합으로 분해하며, 상기 공유 함수는 상기 순환 신경망을 이용하여 공유 특성을 획득하도록 하여 상기 순환 신경망을 학습시키고, 상기 개별 함수는 상기 가우시안 프로세스를 이용하여 개별 특성을 모델링하도록 상기 가우시안 프로세스를 학습시키며,
학습된 상기 순환 신경망 및 상기 가우시안 프로세스를 통해 새로운 시계열 데이터의 입력 시 상기 공유 특성 및 상기 개별 특성을 획득하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치.
A recurrent neural network (RNN) that acquires a shared characteristic, which is an overall trend among multiple heterogeneous patients from time series data; And
Gaussian Processes (GP) modeling individual characteristics for each patient from the time series data
Including,
For multi-task learning of the recurrent neural network and the Gaussian process, a function consisting of time series data for each patient is decomposed into a sum of a shared function and an individual function, and the shared function is used to obtain a shared characteristic using the recurrent neural network. To train the recurrent neural network, and the individual function trains the Gaussian process to model individual characteristics using the Gaussian process,
Acquiring the shared characteristic and the individual characteristic when inputting new time series data through the learned recurrent neural network and the Gaussian process
A complex model device using a recurrent neural network and a Gaussian process, characterized by.
제1항에 있어서,
상기 환자들로부터 얻은 상기 가우시안 프로세스의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 최적화부
를 더 포함하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치.
The method of claim 1,
Optimizer for minimizing the sum of the set of negative marginal log-likelihood of the Gaussian process obtained from the patients
A complex model device using a recurrent neural network and a Gaussian process further comprising.
삭제delete 제2항에 있어서,
상기 최적화부는,
상기 순환 신경망으로부터 획득한 상기 공유 특성과 상기 가우시안 프로세스로부터 획득한 상기 개별 특성을 이용하여 상기 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치.
The method of claim 2,
The optimization unit,
Minimizing the sum of the set of negative marginal log-likelihoods using the shared characteristics obtained from the recurrent neural network and the individual characteristics obtained from the Gaussian process
A complex model device using a recurrent neural network and a Gaussian process, characterized by.
제1항에 있어서,
상기 시계열 데이터는,
전자 건강 기록(Electronic Health Care, EHR)인 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치.
The method of claim 1,
The time series data,
What is Electronic Health Care (EHR)
A complex model device using a recurrent neural network and a Gaussian process, characterized by.
제1항에 있어서,
상기 순환 신경망을 통해 공유 특성을 획득하고, 상기 가우시안 프로세스를 통해 개별 특성을 반영하여, 상기 각 환자에 대해 단일한 가우시안 프로세스 모델을 구축하며, 상기 단일한 가우시안 프로세스 모델은 환자 별 특성에 개인화된 예측을 제공하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치.
The method of claim 1,
A single Gaussian process model is constructed for each patient by acquiring shared characteristics through the recurrent neural network and reflecting individual characteristics through the Gaussian process, and the single Gaussian process model is a personalized prediction for each patient's characteristics. To provide
A complex model device using a recurrent neural network and a Gaussian process, characterized by.
순환 신경망(Recurrent Neural Network, RNN)을 사용하여 시계열 데이터로부터 이질적인 환자들 간의 전반적인 경향인 공유 특성을 획득하는 단계; 및
가우시안 프로세스(Gaussian Processes, GP)를 사용하여 상기 시계열 데이터로부터 각 환자에 대한 개별 특성을 모델링하는 단계
를 포함하고,
상기 순환 신경망 및 상기 가우시안 프로세스의 멀티-태스크 학습을 위해 각 환자에 대한 시계열 데이터로 이루어진 함수를 공유 함수와 개별 함수의 합으로 분해하며, 상기 공유 함수는 상기 순환 신경망을 이용하여 공유 특성을 획득하도록 하여 상기 순환 신경망을 학습시키고, 상기 개별 함수는 상기 가우시안 프로세스를 이용하여 개별 특성을 모델링하도록 상기 가우시안 프로세스를 학습시키며,
학습된 상기 순환 신경망 및 상기 가우시안 프로세스를 통해 새로운 시계열 데이터의 입력 시 상기 공유 특성 및 상기 개별 특성을 획득하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법.
Obtaining a shared characteristic, which is an overall tendency among heterogeneous patients, from time series data using a recurrent neural network (RNN); And
Modeling individual characteristics for each patient from the time series data using Gaussian Processes (GP)
Including,
For multi-task learning of the recurrent neural network and the Gaussian process, a function consisting of time series data for each patient is decomposed into a sum of a shared function and an individual function, and the shared function is used to obtain a shared characteristic using the recurrent neural network. To train the recurrent neural network, and the individual function trains the Gaussian process to model individual characteristics using the Gaussian process,
Acquiring the shared characteristic and the individual characteristic when inputting new time series data through the learned recurrent neural network and the Gaussian process
A method of operating a complex model device using a recurrent neural network and a Gaussian process, characterized by.
제7항에 있어서,
상기 환자들로부터 얻은 상기 가우시안 프로세스의 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 최적화 단계
를 더 포함하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법.
The method of claim 7,
Optimization step of minimizing the sum of the set of negative marginal log-likelihoods of the Gaussian process obtained from the patients
A method of operating a complex model apparatus using a recurrent neural network and a Gaussian process further comprising a.
삭제delete 제8항에 있어서,
상기 최적화 단계는,
상기 순환 신경망으로부터 획득한 상기 공유 특성과 상기 가우시안 프로세스로부터 획득한 상기 개별 특성을 이용하여 상기 음경계 로그-가능도(negative marginal log-likelihood)의 집합의 합을 최소화하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법.
The method of claim 8,
The optimization step,
Minimizing the sum of the set of negative marginal log-likelihoods using the shared characteristics obtained from the recurrent neural network and the individual characteristics obtained from the Gaussian process
A method of operating a complex model device using a recurrent neural network and a Gaussian process, characterized by.
제7항에 있어서,
상기 시계열 데이터는,
전자 건강 기록(Electronic Health Care, EHR)인 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법.
The method of claim 7,
The time series data,
What is Electronic Health Care (EHR)
A method of operating a complex model device using a recurrent neural network and a Gaussian process, characterized by.
제7항에 있어서,
상기 순환 신경망을 통해 공유 특성을 획득하고, 상기 가우시안 프로세스를 통해 개별 특성을 반영하여, 상기 각 환자에 대해 단일한 가우시안 프로세스 모델을 구축하며, 상기 단일한 가우시안 프로세스 모델은 환자 별 특성에 개인화된 예측을 제공하는 것
을 특징으로 하는, 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치의 동작 방법.
The method of claim 7,
A single Gaussian process model is constructed for each patient by acquiring shared characteristics through the recurrent neural network and reflecting individual characteristics through the Gaussian process, and the single Gaussian process model is a personalized prediction for each patient's characteristics. To provide
A method of operating a complex model device using a recurrent neural network and a Gaussian process, characterized by.
KR1020180158236A 2018-12-10 2018-12-10 Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method KR102182807B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180158236A KR102182807B1 (en) 2018-12-10 2018-12-10 Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180158236A KR102182807B1 (en) 2018-12-10 2018-12-10 Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method

Publications (2)

Publication Number Publication Date
KR20200075088A KR20200075088A (en) 2020-06-26
KR102182807B1 true KR102182807B1 (en) 2020-11-25

Family

ID=71136236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180158236A KR102182807B1 (en) 2018-12-10 2018-12-10 Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method

Country Status (1)

Country Link
KR (1) KR102182807B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220068445A1 (en) * 2020-08-31 2022-03-03 Nec Laboratories America, Inc. Robust forecasting system on irregular time series in dialysis medical records

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Mixed Effect Composite RNN-GP: A Personalized and Reliable Prediction Model for Healthcare. 양은호 외 4명. arXiv. 2018.06.05.*

Also Published As

Publication number Publication date
KR20200075088A (en) 2020-06-26

Similar Documents

Publication Publication Date Title
Jiang et al. Quo vadis artificial intelligence?
Zhang ATTAIN: Attention-based time-aware LSTM networks for disease progression modeling.
KR102216689B1 (en) Method and system for visualizing classification result of deep neural network for prediction of disease prognosis through time series medical data
KR101841222B1 (en) Method for generating prediction results for early prediction of fatal symptoms of a subject and apparatus using the same
KR20190123609A (en) Method and system for predicting disease prognosis from patient medical history using deep attention network
Torres et al. Patient facial emotion recognition and sentiment analysis using secure cloud with hardware acceleration
Al-Shammari et al. Cardiac stroke prediction framework using hybrid optimization algorithm under DNN
Jilani et al. PCA-ANN for classification of Hepatitis-C patients
Dargazany et al. WearableDL: Wearable Internet‐of‐Things and Deep Learning for Big Data Analytics—Concept, Literature, and Future
Ellahham et al. Use of artificial intelligence for improving patient flow and healthcare delivery
KR20200017595A (en) Apparatus and method for non-invasive control of human learning and inference process at behavior and neural levels based upon brain-inspired artificial intelligence technique
Fei et al. An overview of healthcare data analytics with applications to the COVID-19 pandemic
Biswas et al. Hybrid expert system using case based reasoning and neural network for classification
CN114175173A (en) Learning platform for patient history mapping
Fuster-Garcia et al. Fusing actigraphy signals for outpatient monitoring
Indrakumari et al. Introduction to Deep Learning
Djenouri et al. An intelligent collaborative image-sensing system for disease detection
Czibula et al. IPA-An intelligent personal assistant agent for task performance support
Majzoub et al. Epilepsy detection with multi-channel EEG signals utilizing Alexnet
Tahmassebi et al. An interpretable deep learning framework for health monitoring systems: a case study of eye state detection using eeg signals
KR102182807B1 (en) Apparatus of mixed effect composite recurrent neural network and gaussian process and its operation method
Bhatt et al. Analytical study on cardiovascular health issues prediction using decision model-based predictive analytic techniques
Zhang et al. Continuous-time decision transformer for healthcare applications
Shukla et al. Optimization assisted bidirectional gated recurrent unit for healthcare monitoring system in big-data
Ng et al. Extension of mixture-of-experts networks for binary classification of hierarchical data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant