KR20210105724A - Reinforcement learning method, device, and program for identifying causal effect in logged data - Google Patents

Reinforcement learning method, device, and program for identifying causal effect in logged data Download PDF

Info

Publication number
KR20210105724A
KR20210105724A KR1020200020549A KR20200020549A KR20210105724A KR 20210105724 A KR20210105724 A KR 20210105724A KR 1020200020549 A KR1020200020549 A KR 1020200020549A KR 20200020549 A KR20200020549 A KR 20200020549A KR 20210105724 A KR20210105724 A KR 20210105724A
Authority
KR
South Korea
Prior art keywords
causal
result
reinforcement learning
subject
sampled
Prior art date
Application number
KR1020200020549A
Other languages
Korean (ko)
Other versions
KR102440817B1 (en
Inventor
서성욱
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020200020549A priority Critical patent/KR102440817B1/en
Priority to PCT/KR2021/002024 priority patent/WO2021167344A1/en
Publication of KR20210105724A publication Critical patent/KR20210105724A/en
Application granted granted Critical
Publication of KR102440817B1 publication Critical patent/KR102440817B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a reinforcement learning method for identifying causal effect comprising: a step of acquiring recorded data related to patients; a step of sampling a subject included in another non-treated group from the recorded data to estimate causality of treatment and a result for any target subject; a step of comparing a result of the target subject and a result of the sampled subject to generate causal compensation; and a step of performing reinforcement learning using the causal compensation.

Description

기록된 데이터에서 인과성을 식별하는 강화학습 방법, 장치 및 프로그램{Reinforcement learning method, device, and program for identifying causal effect in logged data}Reinforcement learning method, device, and program for identifying causal effect in logged data}

본 발명의 실시 예들은, 기록된 데이터에서 인과성 또는 인과적 영향을 식별하는 강화학습 방법, 장치 및 프로그램에 관한 것이다. Embodiments of the present invention relate to a reinforcement learning method, apparatus and program for identifying causal or causal influence in recorded data.

의료 분야 및 헬스케어 분야에서 빅데이터를 사용할 수 있게 됨에 따라, 관찰 데이터(observational data)로부터 개별적 수준의 인과성 또는 인과 영향(causal effect)을 식별하는 기술의 개발에 대한 관심이 집중되고 있다. 예를 들면 인과 영향을 예측하여 어떤 행동(예: 치료)을 할 것인지에 관한 의사결정 모델을 수립하는 기술의 개발이 시도될 수 있다. As big data becomes available in the medical field and healthcare field, attention is focused on the development of techniques to identify individual levels of causal or causal effects from observational data. For example, attempts may be made to develop techniques for predicting causal effects and establishing decision-making models regarding what actions (eg, treatment) to take.

이러한 기술의 개발을 위해, 예를 들면 무작위적 임상 시험(randomized clinical trial, RCT)을 통해 치료와 결과의 인과관계를 발견할 수 있겠지만, 임상 시험은 윤리적 문제, 높은 비용, 및 유효성 문제를 수반한다. 따라서 인과관계 추론을 위해 새로운 분석방법이 요구된다. For the development of these technologies, for example, a randomized clinical trial (RCT) may be used to discover a causal relationship between treatment and outcome, but clinical trials involve ethical issues, high costs, and effectiveness issues. . Therefore, a new analysis method is required for inferring causality.

한편, 종래의 데이터 기반의 의사결정(data driven decision) 모델은, 한 개체(individual)로부터 하나의 잠재적 결과(outcome)만을 학습하기 때문에, 학습된 모델이 편향(bias)될 수 있는 문제점이 존재한다. 예를 들면 이러한 모델은, 개체에 따라 편견을 가지고 결과를 도출하는 문제점이 존재할 수 있다. On the other hand, since the conventional data driven decision model learns only one potential outcome from one individual, there is a problem that the trained model may be biased. . For example, such a model may have a problem of deriving results with bias depending on the individual.

또한 강화학습에서 에이전트(agent)는 보상을 최대화하는 행동(action)의 시퀀스를 생성하는데, 보상이 인위로 정해질 수 있기 때문에 학습 모델이 인위로 유도될 수 있다. 따라서 종래 기술에 따른 학습 모델은 객관성을 갖지 못할 수 있으며, 과학적으로 사용되기 어려울 수 있다.Also, in reinforcement learning, an agent creates a sequence of actions that maximizes a reward, and since the reward can be determined artificially, the learning model can be artificially induced. Therefore, the learning model according to the prior art may not have objectivity and may be difficult to use scientifically.

본 발명은, 상기와 같은 문제점을 개선하기 위해 안출된 것으로, 기록된 데이터에서 인과성을 식별하는 강화학습 방법, 장치 및 프로그램을 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다. The present invention has been devised to improve the above problems, and an object of the present invention is to provide a reinforcement learning method, apparatus and program for identifying causality in recorded data. However, these problems are exemplary, and the scope of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법은, 환자들에 관한 기록된 데이터를 획득하는 단계; 임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 단계; 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 단계; 상기 인과보상을 사용한 강화학습을 수행하는 단계;를 포함할 수 있다. A reinforcement learning method for identifying causality according to an embodiment of the present invention includes: acquiring recorded data about patients; sampling, from the recorded data, subjects included in the non-treated relative group to estimate causality of treatment and outcome for any subject subject; generating a causal reward by comparing the result of the target entity with the result of the sampled entity; It may include; performing reinforcement learning using the causal reward.

일 실시예에 따르면, 상기 인과보상을 생성하는 단계는, 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과의 차이가, 상기 대상 개체의 사실(factual) 결과와 상기 대상 개체의 반사실(counterfactual) 결과의 차이에 상응하도록, 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과의 차이를 변형하는 과정을 단계를 포함할 수 있다. According to an embodiment, in the generating of the causal reward, the difference between the result of the target entity and the result of the sampled entity is determined by determining a factual result of the target entity and a counterfactual of the target entity. The method may include transforming a difference between the result of the target entity and the result of the sampled entity to correspond to the difference in the result.

일 실시예에 따르면, 상기 인과보상을 생성하는 단계는, i번째 샘플링된 개체와 상기 대상 개체의 결과 차이

Figure pat00001
에, 상기 i번째 샘플링된 개체와 상기 대상 개체의 공변량 거리(covariates distance)에 기초한 가중치를 곱하여 상기 인과보상으로 생성하는 단계를 포함할 수 있다. According to an embodiment, the generating of the causal reward may include a difference in results between the i-th sampled entity and the target entity.
Figure pat00001
and generating the causal compensation by multiplying the i-th sampled entity and a weight based on a covariates distance of the target entity.

일 실시예에 따르면, 상기 인과보상을 생성하는 단계는, 상기 i번째 샘플링된 개체의 결과와 상기 대상 개체의 결과에 각각 성향점수(propensity score)의 역수를 곱한 결과의 차이를, 상기 결과 차이

Figure pat00002
로 사용하는 단계를 더 포함할 수 있다. According to an embodiment, the generating of the causal reward comprises a difference between the result of the i-th sampled entity and the result of multiplying the result of the target entity by the reciprocal of a propensity score, the result difference
Figure pat00002
It may further include the step of using as

일 실시예에 따르면, 상기 강화학습을 수행하는 단계는, 상기 인과보상을 DQN (Deep Q Neural Network)에 적용하는 단계를 포함할 수 있다. According to an embodiment, performing the reinforcement learning may include applying the causal reward to a Deep Q Neural Network (DQN).

일 실시예에 따르면, 상기 환자들에 관한 기록된 데이터를 획득하는 단계는, 각 환자의 연령, 성별, 종양의 1차 부위, 종양 크기, 조직학적 유형(histologic subtype), SEER 단계, 외과 치료, 및 방사선 치료를 나타내는 변수 중 하나 이상을 획득하는 단계를 포함할 수 다. According to one embodiment, the step of obtaining recorded data about the patients comprises: each patient's age, sex, primary site of tumor, tumor size, histologic subtype, SEER stage, surgical treatment, and obtaining one or more of parameters indicative of radiation therapy.

본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 장치는, 환자들에 관한 기록된 데이터를 획득하는 데이터 획득부; 임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 샘플링부; 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 인과보상 생성부; 상기 인과보상을 사용한 강화학습을 수행하는 강화학습부;를 포함할 수 있다. Reinforcement learning apparatus for identifying causality according to an embodiment of the present invention includes: a data acquisition unit for acquiring recorded data about patients; a sampling unit configured to sample, from the recorded data, subjects included in the relative group that did not receive the treatment, in order to estimate the causality of treatment and results for a given subject; a causal compensation generating unit for generating a causal compensation by comparing the result of the target entity with the result of the sampled entity; and a reinforcement learning unit that performs reinforcement learning using the causal reward.

본 발명의 일 실시예에 따른 인과성을 식별하는 비-일시적(non-transitory) 컴퓨터-판독 가능(computer-readable) 저장(storage) 매체(medium)는, 환자들에 관한 기록된 데이터를 획득하는 동작과, 임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 동작과, 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 동작과, 상기 인과보상을 사용한 강화학습을 수행하는 동작을 실행하기 위한 하나 이상의 프로그램들을 저장할 수 있다. A non-transitory computer-readable storage medium for identifying causality in accordance with an embodiment of the present invention comprises an operation for obtaining recorded data about patients. and sampling, from the recorded data, subjects included in the non-treated relative group to estimate causality of treatment and outcome for any subject subject; One or more programs may be stored for executing an operation of generating a causal reward by comparing the results of the entity and an operation of performing reinforcement learning using the causal reward.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

상술한 바와 같이 이루어진 본 발명의 일 실시예에 따르면, 기록된 데이터로부터 반사실(counterfactual) 결과를 추정할 수 있어, 기록된 데이터로부터 인과성을 식별 또는 예측할 수 있는 강화학습 모델을 생성할 수 있다. According to an embodiment of the present invention made as described above, it is possible to estimate a counterfactual result from the recorded data, and it is possible to generate a reinforcement learning model capable of identifying or predicting causality from the recorded data.

따라서 무작위적 임상 시험(RCT)을 수행하지 않아도, 강화학습을 통해 개별적 환자에 대하여 치료의 결과에 대한 인과성을 식별, 예측할 수 있다. Therefore, even without conducting a randomized clinical trial (RCT), it is possible to identify and predict the causality of treatment outcomes for individual patients through reinforcement learning.

또한 대상 개체(subject)와 모사-반사실(pseudo-counterfactual) 개체의 결과의 차이를 이용한 인과보상(causal reward)을 사용하여 강화학습을 수행함으로써 편향(bias)을 없앨 수 있고, 강화학습의 성능을 크게 향상시킬 수 있다.In addition, the bias can be eliminated by performing reinforcement learning using a causal reward using the difference between the results of the subject and the pseudo-counterfactual object, and the performance of reinforcement learning can be greatly improved.

물론 이러한 효과들에 의해 본 발명의 범위가 한정되는 것은 아니다. Of course, the scope of the present invention is not limited by these effects.

도 1은 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법을 나타낸다.
도 2는 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 장치의 구성을 개략적으로 나타낸다.
1 shows a reinforcement learning method for identifying causality according to an embodiment of the present invention.
2 schematically shows the configuration of a reinforcement learning apparatus for identifying causality according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have means that the features or components described in the specification are present, and the possibility that one or more other features or components may be added is not excluded in advance.

이하의 실시예에서, 구성 요소, 부, 블록 등이 연결되었다고 할 때, 구성 요소, 부, 블록들이 직접적으로 연결된 경우뿐만 아니라 구성 요소, 부, 블록들 중간에 다른 구성 요소, 부, 블록들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when components, units, blocks, etc. are connected, other components, units, and blocks are interposed between the components, units, and blocks as well as when the components, units, and blocks are directly connected. It also includes cases where it is indirectly connected.

이하의 실시예에서, 강화학습(reinforcement learning)은, 현재의 상태(state)에서 어떤 행동(action)을 취하는 것이 최적인지를 학습하는 것이다. 행동을 취할 때마다 외부 환경에서 보상(reward)이 주어지는데, 이러한 보상을 최대화하는 방향으로 학습이 진행될 수 있다.In the following examples, reinforcement learning is learning which action is optimal to take in a current state. Whenever an action is taken, a reward is given from the external environment, and learning can proceed in the direction of maximizing this reward.

다시 말하면 강화학습은, 어떤 환경 안에서 에이전트(agent)가 현재의 상태(state)를 인식하여, 선택 가능한 행동(action)들 중 보상(reward)을 최대화하는 행동 혹은 행동 순서(정책)를 찾아가는 알고리즘이다. 에이전트는 정책(policy)을 근거로 행동을 결정할 수 있다. 정책이란 특정 상황에서 특정 행동을 할 확률 규칙일 수 있으며, 학습을 통해 알아낼 수 있다. 강화학습의 목표는 누적 보상을 최대로 하는 것일 수 있다.In other words, reinforcement learning is an algorithm in which an agent recognizes the current state in an environment and finds an action or action sequence (policy) that maximizes a reward among selectable actions. . Agents can decide actions based on policies. A policy can be a rule of probability for taking a specific action in a specific situation, and can be learned through learning. The goal of reinforcement learning may be to maximize the cumulative reward.

본 발명의 실시예에 따른 인과성을 식별하는 강화학습 방법, 장치 및 프로그램에 따르면, 관찰 데이터(observational data)로부터 개체(individual) X의 결과(outcome) Y에 대한 치료 T의 인과적 영향(causal effect, CE)을 추정할 수 있다. According to the reinforcement learning method, apparatus and program for identifying causality according to an embodiment of the present invention, causal effect of treatment T on outcome Y of individual X from observational data , CE) can be estimated.

변수 X는 개체(individual)의 특성을 나타내며, 예를 들면 개별 환자들을 나타낼 수 있다. X는 환자들의 관찰된 기저 특성 또는 기저 정보(baseline information)가 공변량(covariates)으로 주어진 것이다. 결과 Y는 치료 받거나 또는 치료 받지 않은 개체(즉, 환자)의 결과를 나타내며, 예를 들면 생존 기간이나 생존율을 나타낼 수 있다. 결과 Y는 예를 들면 시간 및 그 시간에서의 생존 여부로 나타낼 수 있다. 하지만 이에 한정되지 않는다. The variable X represents an individual characteristic, and may represent, for example, individual patients. X is the observed baseline characteristics or baseline information of patients given as covariates. Outcome Y represents the outcome of a treated or untreated individual (ie, patient), and may represent, for example, survival or survival rate. The result Y can be represented, for example, in terms of time and survival at that time. However, the present invention is not limited thereto.

본 발명의 실시예에 따른 방법, 장치 및 프로그램에 따르면, 치료 받은(T=t) 개체 X의 결과 Y에 대하여, 치료 T가 결과 Y에 미친 영향, 즉 치료 T와 결과 Y의 인과성(CE)을 식별(identify)하는 강화학습을 수행할 수 있다. 또한 상기 강화학습을 이용하면, 개체 X에 대하여 산출된 개별 인과 영향(individual causal effect, ICE)을 이용하여 개인의 치료 효과를 예측하고, 개인의 치료에 대한 의사결정을 지원할 수 있다.According to the method, apparatus and program according to an embodiment of the present invention, for the outcome Y of the subject X treated (T=t), the effect of the treatment T on the outcome Y, that is, the causality (CE) of the treatment T and the outcome Y Reinforcement learning to identify (identify) can be performed. In addition, if the reinforcement learning is used, an individual causal effect (ICE) calculated for the individual X can be used to predict an individual's treatment effect and support decision-making on the individual's treatment.

기록된 정책(logged policy) t를 갖는 배치(batch) 데이터 또는 관찰 데이터로부터 개체 X의 결과 Y에 대한 치료 T의 인과적 영향(CE)을 추정하기 위해서는, 실제 데이터로부터 실제 결과를 나타내는 사실 결과(factual outcome) E[Y|X, T=t] 및, 동일한 개체에 대한 가상의 예상 결과를 나타내는 반사실 결과(counterfactual outcome) E[Y|X, T≠t]를 정의한다. To estimate the causal effect (CE) of treatment T on outcome Y for subject X from batch data or observation data with a logged policy t, from actual data a factual outcome representing the actual outcome ( factual outcome) E[Y|X, T=t] and a counterfactual outcome E[Y|X, T≠t] representing a hypothetical expected outcome for the same subject are defined.

사실 결과 E[Y|X, T=t]는, 개체 X가 치료 받은 경우(T = t)의 결과 Y를 나타내며, 반사실 결과 E[Y|X, T≠t]는, 개체 X가 치료 받지 않은 경우(T≠t)의 결과 Y를 나타낸다. 결과 Y는 일 예를 들면, 생존 기간 또는 생존율로 나타낼 수 있다. 한편, 치료 T에 관한 행동(action)이 이분형(binary)인 경우, T=0 or T=1로 나타낼 수 있으며, 예를 들면, 치료 받은 경우를 T=1, 치료 받지 않은 경우를 T=0으로 나타낼 수 있다. In fact, the result E[Y|X, T=t] represents the outcome Y if subject X is treated (T = t), and the reflex chamber outcome E[Y|X, T≠t] is that subject X is treated The result Y in the case of not receiving (T ≠ t) is denoted. The result Y may be expressed as, for example, survival period or survival rate. On the other hand, if the action with respect to treatment T is binary, it can be expressed as T=0 or T=1, for example, T=1 for the treated case and T= for the non-treated case. can be expressed as 0.

여기서, 개체 X에 대한 T와 Y 사이의 인과관계는, 상기 사실 결과와 반사실 결과의 차이, 즉 YT=1(X) - YT=0(X)를 통해 추론될 수 있다. Here, the causal relationship between T and Y for the subject X can be inferred through the difference between the fact result and the semi-real result, that is, Y T=1 (X) - Y T=0 (X).

하지만, 동일한 개체 X에 대하여 치료 받은 결과와 치료받지 않은 결과를 동시에 관찰하는 것은 불가능하다. 즉, 치료 받은 개체 X에 대하여, 치료 받지 않은 반사실 결과는 실제로 존재하지 않으므로, 관찰할 수 없는 데이터이다. However, it is impossible to simultaneously observe the treated and untreated results for the same subject X. That is, for the treated subject X, the untreated reflex chamber results do not actually exist, and therefore cannot be observed.

따라서, 개체 X에 대하여 치료 T와 결과 Y의 인과관계를 추정하기 위해서는, 기록된 데이터(logged data)를 가지고 반사실 결과를 추정하는 새로운 알고리즘이 요구된다. 구체적으로, 치료 받은 개체 X에 대한 반사실 결과(즉, 치료 받지 않은 결과)는 기록된 데이터로부터 얻을 수 없기 때문에, 치료 받지 않은(T=0) 상대군(counterpart) 환자들에 관한 기록된 데이터로부터의 샘플링을 통해 모사-반사실(pseudo-counterfactual)을 나타내는 방안이 요구된다. Therefore, in order to estimate the causal relationship between treatment T and outcome Y for subject X, a new algorithm for estimating reflex chamber outcomes with logged data is required. Specifically, the recorded data for the untreated (T=0) counterpart patients, because the reflex chamber results for the treated subject X (i.e., the untreated results) cannot be obtained from the recorded data. A method of representing a pseudo-counterfactual through sampling from

본 발명의 실시예에 따른 인과성을 식별하는 강화학습 방법, 장치 및 프로그램에 따르면, 치료 받지 않은(T=0) 상대군 환자들로부터 샘플링된 모사-반사실 결과와의 비교를 통해 개체 X에서 치료 T=1의 인과보상을 추정하고, 상기 인과보상을 사용하여 강화학습을 수행할 수 있다. 인과보상을 사용하여 강화학습을 수행하는 것은, 강화학습 체제에서 에이전트가 상기 인과보상을 이용하여 행동 공간(action space)을 탐색하고, 개인 X의 인과보상을 최대화하는 최적의 정책을 학습하는 것이다.According to the reinforcement learning method, apparatus and program for identifying causality according to an embodiment of the present invention, treatment in subject X through comparison with simulated-reflection results sampled from non-treated (T=0) relative patients A causal reward of T=1 may be estimated, and reinforcement learning may be performed using the causal reward. To perform reinforcement learning using causal reward, the agent searches the action space using the causal reward in the reinforcement learning system and learns the optimal policy to maximize the causal reward of individual X.

한편 본 발명의 실시예에 따르면, 상기 모사-반사실(pseudo-counterfactual)을 나타내기 위해 샘플링된 개체들의 군을 예를 들면 모사-반사실 군 X'으로 지칭할 수 있다. 또한 상기 모사-반사실을 나타내기 위해 샘플링된 개체를 Xi'로 표기할 수 있다(Xi' ∈ X'). 예를 들면 Xi' 는 i번째 샘플링된 개체일 수 있다. Xi'는 치료 받지 않은 상대군 환자들에 관한 기록된 데이터로부터 샘플링된 개체이므로, '상대군 개체'로 지칭될 수도 있다. Meanwhile, according to an embodiment of the present invention, a group of individuals sampled to represent the pseudo-counterfactual may be referred to as, for example, a pseudo-counterfactual group X'. In addition, the simulated - 'can be expressed as (X i' the sampled object to indicate that the half true X i ∈ X '). For example, X i ' may be the i-th sampled entity. Since X i ' is an individual sampled from recorded data regarding untreated relative patients, it may also be referred to as a 'comparative population'.

정리하면, 인과 영향(CE)을 식별하기 위해, 개체 X의 치료 받은 결과 및 치료 받지 않은 결과의 추정(estimate)이 요구되는데, 본 발명에 따르면, 치료 받지 않은 상대군 환자들로부터 샘플링된 개체 Xi'의 결과와 치료 받은 개체 X의 결과를 비교하여 모사-인과보상을 추정하고, 상기 모사-인과보상을 이용하여 실제 인과성을 근사(approximate)하는 강화학습을 수행할 수 있다.In summary, in order to identify a causal effect (CE), an estimate of the treated and untreated outcomes of subject X is required. According to the present invention, subject X sampled from untreated relative patients By comparing the result of i ' and the result of the treated individual X, the simulated-causal reward can be estimated, and reinforcement learning can be performed to approximate actual causality using the simulated-causal reward.

도 1은 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법을 나타낸다. 인과성, 인과 영향, 또는 인과 효과(causal effect, CE)을 식별하는 것은, 개체(individual)의 결과에 대하여, 어떤 행동(예: 치료)이 결과에 미친 인과적 영향을 식별하는 것을 의미할 수 있다. 또한 '식별'은, 추정, 근사, 또는 예측하는 것을 포함할 수 있다. 1 shows a reinforcement learning method for identifying causality according to an embodiment of the present invention. Identifying causal, causal effect, or causal effect (CE) may mean identifying the causal effect of an action (e.g. treatment) on an individual outcome. . Also, 'identifying' may include estimating, approximating, or predicting.

본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법은, 환자들에 관한 기록된 데이터를 획득하는 단계(S10), 임의의 대상 개체(subject)에 대한 치료와 결과의 인과성을 추정하기 위하여, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군(counterpart)에 포함된 개체를 샘플링하는 단계(S20), 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 단계(S30), 상기 인과보상을 사용한 강화학습을 수행하는 단계(S40)를 포함할 수 있다. In a reinforcement learning method for identifying causality according to an embodiment of the present invention, obtaining recorded data about patients (S10), in order to estimate the causality of treatment and results for an arbitrary subject. , from the recorded data, sampling an individual included in the counterpart that has not received the treatment (S20), comparing the result of the subject with the result of the sampled individual to generate a causal compensation It may include a step (S30) and a step (S40) of performing reinforcement learning using the causal reward.

도 1을 참조하면, 먼저 환자들에 관한 기록된 데이터(logged data)를 획득하는 단계(S10)가 수행된다. 환자들에 관한 기록된 데이터는, 각각의 환자 i에 대한 Xi, T, Yi의 값을 포함할 수 있다.Referring to FIG. 1 , first, a step S10 of obtaining logged data about patients is performed. The recorded data about the patients may include the values of X i , T , Y i for each patient i.

본 발명의 일 실시예에 따르면, 기록된 데이터로부터 환자들의 기저 정보(baseline information)를 나타내는 Xi를 수집할 수 있다. According to an embodiment of the present invention, X i representing baseline information of patients may be collected from the recorded data.

Xi는 개체(예: 환자) i의 연령, 성별, 종양의 원발부(primary site)(예: 축상 또는 말단), 종양 크기(예: 기준 크기 이상 또는 이하), 조직학적 유형(histologic subtype)(예: spindle cell type, biphasic type, or not otherwise specified [NOS]), SEER 단계(예: localized, regional, or distant), 외과 치료, 방사선 치료 중 하나 이상을 포함할 수 있다. 본 발명은 이에 한정되지 않으며, Xi는 이 외에도 다양한 변수를 포함할 수 있다. Xi는 관찰하는 환자 집단의 특성에 따라 가능한 모든 임상 정보를 사용할 수 있다. 예를 들면 Xi는 어떤 치료 T의 인과성을 추정하려 하는지에 따라 다양하게 선택될 수 있다. 예를 들면, Xi는 개체 i의 혈압, 당뇨, 흡연, 체질량지수, HDL 지수, LDL 지수, 가족력을 나타내는 변수를 포함할 수 있다. 예를 들면, Xi는 개체 i의 영상 데이터를 포함할 수 있다. Xi는 상기 영상 데이터로써, X-ray 영상, CT(Computed Tomography) 영상, PET(Positron Emission Tomography) 영상, 초음파 영상, MRI(Magnetic Resonance Imaging)과 같은 의료 영상의 데이터 또는 상기 데이터에 소정의 처리를 한 값을 포함할 수 있다. Xi는 상술한 바와 같은 복수의 변수를 포함하는, 예를 들면 벡터의 형태일 수 있다.X i is the age, sex, primary site of the tumor (eg, axial or distal) of the subject (eg patient) i, tumor size (eg above or below the reference size), and histologic subtype (eg, spindle cell type, biphasic type, or not otherwise specified [NOS]), SEER stage (eg, localized, regional, or distant), surgical treatment, or radiation therapy. The present invention is not limited thereto, and X i may include various other variables. X i can use all available clinical information depending on the characteristics of the patient population being observed. For example, X i can be selected in various ways depending on which treatment T causality is to be estimated. For example, X i may include variables representing blood pressure, diabetes, smoking, body mass index, HDL index, LDL index, and family history of individual i. For example, X i may include image data of the entity i. X i is the image data, and is data of a medical image such as an X-ray image, a computed tomography (CT) image, a positron emission tomography (PET) image, an ultrasound image, or magnetic resonance imaging (MRI), or a predetermined process to the data. may contain a single value. X i may be in the form of, for example, a vector including a plurality of variables as described above.

본 발명의 일 실시예에 따르면, 기록된 데이터로부터 각 개체 i의 치료 T 여부를 수집할 수 있다. 예를 들면 치료 T는 화학 요법(chemotherapy)일 수 있으나 이는 일 예시일 뿐이며 본 발명은 다양한 치료에 대하여 적용될 수 있다. According to an embodiment of the present invention, it is possible to collect treatment T of each individual i from the recorded data. For example, treatment T may be chemotherapy, but this is only an example and the present invention may be applied to various treatments.

본 발명의 일 실시예에 따르면, 기록된 데이터로부터 각 개체 i의 결과 Yi를 수집할 수 있다. Yi는 개체 i의 생존에 관한 결과를 나타낼 수 있으며, 시간 및 이벤트(즉, 사망 또는 생존)를 포함할 수 있다. 예를 들면 Yi는 시간 및 그 시간에서의 생존 여부를 나타내는 변수로 나타낼 수 있다. According to an embodiment of the present invention, the result Y i of each entity i may be collected from the recorded data. Y i may represent the outcome regarding the survival of individual i, and may include time and event (ie, death or survival). For example, Y i may be expressed as a variable representing time and whether or not survival occurs at that time.

다음으로, 임의의 대상 개체(subject)에 대한 치료 T와 결과의 인과성을 추정하기 위하여, 상기 대상 개체(T=t, X)에 대한 모사-반사실을 나타내기 위한 상대군 개체(T≠t, Xi')를 샘플링하는 단계(S20)가 수행된다. 상대군 개체(T≠t, Xi')는, 상기 기록된 데이터 중에서, 치료 받지 않은 상대군 환자로부터 샘플링된다. 반대로, 사실 데이터에서 개체가 치료를 받지 않은 경우(T≠t, X) 모사-반사실 상대군은 치료를 받은 개체(T=t, Xi')일 수 있다. Next, in order to estimate the treatment T for any subject and the causality of the outcome, the relative subject (T≠t) to represent the simulated-reflection facts for the subject (T=t, X). , X i ') is sampled (S20) is performed. The relative population (T≠t, X i ') is sampled from the untreated relative patient, among the recorded data. Conversely, if an individual in fact data did not receive treatment (T ≠ t, X), the simulated-reflex chamber counterpart could be an individual who received treatment (T = t, X i ').

다음으로, 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과의 비교를 이용하여, 인과보상을 생성하는 단계(S30)가 수행된다. 본 발명에 따른 인과보상은, 할인된 인과보상(discounted causal reweard)을 지칭할 수 있다. Next, using the comparison of the result of the target entity with the result of the sampled entity, generating a causal reward ( S30 ) is performed. Causal compensation according to the present invention may refer to discounted causal reweard.

일 실시예에 따르면, 대상 개체(T=t, X)와 샘플링된 개체(T≠t, Xi'∈X')의 결과의 비교에 있어서, 유사한 공변량을 가지는 유사한 개체들(X

Figure pat00003
X') 간에 성향점수 재가중(propensity score reweighting) 또는 공변량 조정(covariate adjustment)을 통하여 상기 개체들 간의 결과를 비교하는 공변성 매칭(covariance matching)이 수행될 수 있다. 이하에서, 인과보상을 생성하는 동작에 관한 상세한 설명이 서술된다. According to an embodiment, in the comparison of the results of the subject subject (T=t, X) and the sampled subject (T≠t, X i '∈X'), similar subjects (X) having similar covariates
Figure pat00003
X'), covariance matching may be performed to compare results between the individuals through propensity score reweighting or covariate adjustment. Hereinafter, a detailed description of the operation of generating a causal compensation is described.

대상 개체(T=t, X)의 개별 인과 영향

Figure pat00004
은, 대상 개체 X와 매치된 상대군 개체(T≠t, Xi'∈X')의 결과의 차이
Figure pat00005
로 나타내어질 수 있다. Individual causal influence of the target object (T=t, X)
Figure pat00004
is the difference between the result of the target entity X and the matched counterpart entity (T≠t, X i '∈X')
Figure pat00005
can be expressed as

구체적으로, 개별 인과 영향(ICE)은 이상적으로 하기 수학식 1로부터 추론될 수 있다. E는 기대값을 나타낼 수 있다. Specifically, the individual causal influence (ICE) can ideally be inferred from Equation 1 below. E may represent an expected value.

Figure pat00006
Figure pat00006

하지만, 대상 개체 X의 치료 받지 않은 경우(T≠t)의 결과인 Y(T≠t)|X는 실제로 관찰할 수 없는 반사실 결과이므로, 하기 수학식 2와 같이 모사-반사실 군 X'으로부터 샘플링된 개체 Xi'를 이용하여 추정될 수 있다. Xi'는 치료를 받지 않은(T≠t) 상대군 환자들에 관한 기록된 데이터로부터 샘플링된, 상대군 개체이다. However, since Y(T≠t)|X, the result of not receiving treatment (T≠t) of the subject X, is a result of a reflex chamber that cannot be actually observed, as shown in Equation 2 below, the simulated-reflection chamber group X' It can be estimated using an entity X i ' sampled from . X i ' is the relative population, sampled from recorded data for relative patients who did not receive treatment (T≠t).

Figure pat00007
Figure pat00007

Figure pat00008
는 X와 Xi'의 결과의 차이를 나타낼 수 있으며, E는 기대값을 나타낼 수 있다. 한편, 수학식 2에서
Figure pat00009
를 산출함에 있어서, Xi'와 일대일 매칭을 하는 경우, 숨겨진 교란변수(hidden confounder)에 의해 바이어스(bias)가 증가할 수 있다. 또한 일대일 매칭을 하는 경우, 매칭되지 않은 샘플들 사이의 중요한 정보가 무시될 수 있는 문제가 발생할 수 있다
Figure pat00008
may represent the difference between the results of X and X i ', and E may represent the expected value. On the other hand, in Equation 2
Figure pat00009
In calculating , if one-to-one matching is performed with X i ', a bias may increase due to a hidden confounder. Also, in case of one-to-one matching, there may be a problem in that important information between unmatched samples may be ignored.

따라서 본 발명의 일 실시예에 따른 방법, 장치 및 프로그램은, 상기 샘플링 단계(S20)에서, 공변량(covariates)을 고려하지 않고, 기록된 데이터 집합에서 무작위로 N 개의 상대군 개체(T≠t, Xi')를 선택할 수 있다. Therefore, in the method, apparatus and program according to an embodiment of the present invention, in the sampling step ( S20 ), without considering covariates, N randomly selected relative group subjects (T≠t, X i ') can be selected.

한편, 무작위로 샘플링된 상대군 개체 Xi'는 사실 개체(factual individual)(즉, 치료 받은 환자를 나타내는 개체)와 동일한 개체가 아니기 때문에, 모사-반사실에 해당하며 실제 반사실을 반영하기 위해 변형이 필요하다. 상기 변형은 샘플링된 개체 Xi'가 사실 개체 X와 유사하면 결과 차이

Figure pat00010
에 가중치(weight)를 크게 하고 샘플링된 개체 Xi'가 사실 개체 X와 유사하지 않을수록 결과 차이
Figure pat00011
에 가중치(weight)를 작게 하는 계산을 포함할 수 있다. 본 발명에서 가중치는 개체의 유사도가 작을 수록 (즉, 비교 대상 환자간의 거리가 멀 수록) 작은 가중치를 가지게 되는 일종의 할인된 가중치(discounted weight)를 지칭할 수 있다(discounted factor:
Figure pat00012
). On the other hand, since the randomly sampled relative subject X i ' is not the same individual as the factual individual (i.e., the individual representing the treated patient), it corresponds to a simulated-reflex chamber and is used to reflect the actual reflex chamber. transformation is needed The above variant is the difference in outcome if the sampled entity X i ' is in fact similar to entity X.
Figure pat00010
The larger the weight on , the less the sampled object X i ' is in fact similar to the object X, the greater the difference in results.
Figure pat00011
It may include a calculation for reducing the weight in . In the present invention, the weight may refer to a kind of discounted weight that has a smaller weight as the degree of similarity of an individual decreases (that is, as the distance between patients to be compared increases) (discounted factor:
Figure pat00012
).

즉, 대상 개체 X와 샘플링된 개체 Xi'의 결과 차이

Figure pat00013
가 대상 개체의 사실 결과와 반사실 결과의 차이에 상응하도록, 상기 결과 차이
Figure pat00014
를 변형할 수 있다.That is, the difference between the result of the target object X and the sampled object X i '
Figure pat00013
corresponds to the difference between the true result and the semi-real result of the subject, the result difference
Figure pat00014
can be transformed.

구체적으로, 본 발명의 일 실시예에 따른 방법, 장치 및 프로그램은, X와 Xi'간의 공분산 차이(covariance difference)

Figure pat00015
에 따라 가중치
Figure pat00016
를 줄 수 있다. Specifically, the method, apparatus and program according to an embodiment of the present invention, the covariance difference between X and X i '
Figure pat00015
weighted according to
Figure pat00016
can give

Figure pat00017
Figure pat00017

수학식 3을 참조하면, X와 Xi'의 결과 차이

Figure pat00018
에 가중치
Figure pat00019
를 적용한 기대값
Figure pat00020
을 이용하여 인과관계 또는 인과성을 근사하여 나타낼 수 있다. Referring to Equation 3, the difference between the results of X and X i '
Figure pat00018
weighted on
Figure pat00019
expected value applied
Figure pat00020
can be used to approximate causality or causality.

또한, 본 발명의 다른 일 실시예에 따르면, 대상 개체 X와 샘플링된 개체 Xi'∈X'와의 결과 차이

Figure pat00021
를 나타냄에 있어서, 각각의 결과(Y, Yi)를 성향점수(
Figure pat00022
)의 역수(inverse propensity score, IPS)로 재가중(reweight)하여 상기 결과 차이를 나타낼 수도 있다. In addition, according to another embodiment of the present invention, the difference in results between the target object X and the sampled object X i '∈X'
Figure pat00021
In representing each result (Y, Y i ), the propensity score (
Figure pat00022
) may be reweighted with an inverse propensity score (IPS) to indicate the difference in the result.

Figure pat00023
Figure pat00023

성향점수

Figure pat00024
는, 치료를 배정 받을 확률 P(T = t|X)로, 환자에 대해서 측정된 공변량들(X)이 주어졌을 때, 환자가 치료를 받을 조건부확률로 정의될 수 있다. propensity score
Figure pat00024
can be defined as the probability P(T = t|X) of receiving treatment, the conditional probability that a patient will receive treatment, given the covariates (X) measured for the patient.

Figure pat00025
Figure pat00025

Figure pat00026
Figure pat00026

수학식 5는 성향점수의 정의를 나타내며, 수학식 6은 대상 개체 X와 샘플링된 개체 Xi'에 대한, 성향점수의 역수로 재가중된(reweighted) 결과의 차이를 나타낸다. Equation 5 shows the definition of the propensity score, and Equation 6 shows the difference between the reweighted result of the inverse of the propensity score for the target entity X and the sampled entity X i '.

본 발명의 일 실시예에 따르면, 상기 수학식 6의 결과 차이

Figure pat00027
는, 대상 개체 X와 샘플링된 개체 Xi'의 공변량 거리(covariates difference)
Figure pat00028
에 의해 할인될(discounted) 수 있다. According to an embodiment of the present invention, the difference between the results of Equation 6
Figure pat00027
is the covariates difference between the target object X and the sampled object X i '
Figure pat00028
may be discounted by

Figure pat00029
Figure pat00029

수학식 7은 공변량 거리를 나타내는 식이다. Equation 7 is an expression representing the covariate distance.

한편, 본 발명의 일 실시예에 따른 가중치(discounted weight)는, 할인율 γ를

Figure pat00030
만큼 거듭제곱 하여 나타낸다. 여기서 T는 annealing temperature로, 샘플링을 반복할 때마다 상기 가중치를 점진적으로 감소시키도록 한다. 즉, 시간이 지남에 따라 점진적으로 "온도"를 낮춰서 탐험 비율(또는 탐험된 값의 반영 비율)을 낮추도록 한다. 할인율(discount factor) γ는
Figure pat00031
를 만족하며, 작은 값일수록 즉각적인 보상에 강조를 두게 한다. On the other hand, the weight (discounted weight) according to an embodiment of the present invention, the discount rate γ
Figure pat00030
It is expressed by multiplying it by Here, T is the annealing temperature, and the weight is gradually decreased each time sampling is repeated. That is, gradually lowering the “temperature” over time to lower the rate of exploration (or the rate of reflection of values explored). The discount factor γ is
Figure pat00031
is satisfied, and the smaller the value, the more emphasis is placed on immediate reward.

i번째 샘플링에 대하여 할인된 가중치(discounted weight)를 적용한 결과 차이는,

Figure pat00032
와 같이 나타낼 수 있다. The difference as a result of applying a discounted weight to the i-th sampling is,
Figure pat00032
can be expressed as

또한, 상기 할인된 결과 차이의 합

Figure pat00033
은 수학식 8과 같이 정규화될 수 있다. In addition, the sum of the discounted result differences
Figure pat00033
can be normalized as in Equation (8).

Figure pat00034
Figure pat00034

수학식 8은, 할인된 결과 차이를 나타내며, 이는 본 발명의 일 실시예에 따른 강화학습 체제에서 보상(reward)으로 사용될 수 있다. Equation 8 represents the discounted result difference, which may be used as a reward in the reinforcement learning system according to an embodiment of the present invention.

본 발명의 다양한 실시예들에서, 인과성을 식별하는 강화학습을 위해 사용되는 보상을 (할인된) 인과보상(discounted individual causal reward) RICE으로 지칭할 수 있다. RICE는 일 실시예에 따르면 수학식 8과 같을 수 있다. 다만 본 발명은 이에 한정되지 않으며, 본 발명의 다양한 실시예들에 따른 인과보상은 수학식 2, 3, 4, 6과 같이 나타낼 수도 있다. 공통적으로 인과보상은, 대상 개체의 결과와 샘플링된 개체의 결과의 비교를 통해 생성될 수 있다.In various embodiments of the present invention, a reward used for reinforcement learning to identify causality may be referred to as a (discounted) individual causal reward R ICE. R ICE may be equal to Equation (8) according to an embodiment. However, the present invention is not limited thereto, and causal compensation according to various embodiments of the present invention may be expressed as Equations 2, 3, 4, and 6. In common, causal compensation can be generated by comparing the results of the target entity with the results of the sampled entity.

이상에서 전술한 바와 같은 방식으로, 인과보상(discounted individual causal reward)을 생성하는 단계(S30)가 수행될 수 있다. In the manner described above, the step S30 of generating a discounted individual causal reward may be performed.

인과보상은 전술한 바와 같이, 다양한 실시예에서 다양한 방식으로 생성될 수 있다. 공통적으로 인과보상은, 대상 개체의 결과와 샘플링된 개체의 결과의 비교를 통해 생성될 수 있다.Causal compensation may be generated in various ways in various embodiments, as described above. In common, causal compensation can be generated by comparing the results of the target entity with the results of the sampled entity.

일 실시예에 따르면, 인과성을 식별하는 강화학습 방법은, 상대군 환자들로부터 랜덤하게 샘플링된 개체들의 결과와 대상 개체의 결과와의 차이를 인과보상으로 생성 및 사용할 수 있다. 예를 들면, 치료 받지 않은 환자(즉, 상대군 환자)와 치료 받은 환자의 생존 결과를 비교하여 인과보상으로 사용할 수 있다. According to an embodiment, the reinforcement learning method for identifying causality may generate and use a difference between a result of randomly sampled subjects from a counterpart group and a result of a target entity as a causal reward. For example, it can be used as a causal compensation by comparing the survival outcomes of untreated patients (ie, relative patients) with those of treated patients.

다른 일 실시예에 따르면, 인과성을 식별하는 강화학습 방법은, 샘플링된 상대군 개체와 대상 개체 간의 공변량의 분산에 따라 할인된(discounted) 보상을 인과보상으로 생성 및 사용할 수 있다. According to another embodiment, the reinforcement learning method for identifying causality may generate and use a discounted reward as a causal reward according to the variance of a covariate between a sampled relative and a target entity.

또 다른 일 실시예에 따르면, 인과성을 식별하는 강화학습 방법은, 샘플링된 상대군 개체와 대상 개체 간의 결과 차이에 성향점수의 역수(inverse propensity score, IPS)로 가중치를 적용한 보상을 인과보상으로 생성 및 사용할 수 있다. 예를 들면, 샘플링된 개체와 대상 개체의 결과에 성향점수의 역수가 곱해진 값의 결과 차이를 인과보상으로 사용할 수 있다. According to another embodiment, in the reinforcement learning method for identifying causality, a compensation obtained by weighting the result difference between a sampled relative group object and a target object as an inverse propensity score (IPS) is generated as a causal reward. and can be used. For example, the difference in the result of a value obtained by multiplying the result of the sampled individual and the target object by the reciprocal of the propensity score may be used as a causal compensation.

또 다른 일 실시예에 따르면, 인과성을 식별하는 강화학습 방법은, 샘플링된 상대군 개체와 대상 개체 간의 교차 엔트로피(cross entropy)에 따라 할인된(discounted) 보상을 인과보상으로 생성 및 사용할 수 있다. According to another embodiment, the reinforcement learning method for identifying causality may generate and use a discounted reward as a causal reward according to cross entropy between the sampled relative group and the target entity.

마지막으로, 생성된 인과보상을 사용한 강화학습을 수행하는 단계(S40)가 수행될 수 있다. 강화학습을 수행하는 단계(S40)는, 생성된 인과보상을 Q-learning에 적용하는 것을 포함한다.Finally, a step (S40) of performing reinforcement learning using the generated causal reward may be performed. The step of performing reinforcement learning (S40) includes applying the generated causal reward to Q-learning.

구체적으로, 에이전트는 상기 인과보상의 무한합 또는 유한합의 기대값을 최대화하는 최적의 정책(policy)을 학습할 수 있다. 또한 에이전트는 개별 인과보상(individual causal reward)의 기대값을 학습할 수도 있다. Specifically, the agent may learn an optimal policy for maximizing the expected value of the infinite or finite sum of the causal reward. Agents can also learn the expected values of individual causal rewards.

벨만 방정식(Bellman equation)은, 마르코프 결정 과정(MDP)에서 기대 보상의 회귀를 나타낸다. 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법은, 강화학습을 수행하는 단계(S40)에서, 상태 Xt에서의 행동 t에 대한 보상으로 RICE(X)를 적용할 수 있다. 벨만 방정식과 최적 벨만 방정식(optimal Bellman equation)은 하기의 수학식 9와 같이 나타낼 수 있다. The Bellman equation represents the regression of the expected reward in a Markov decision process (MDP). In the reinforcement learning method for identifying causality according to an embodiment of the present invention, in the step S40 of performing reinforcement learning , R ICE (X) may be applied as a reward for the action t in the state X t. The Bellman equation and the optimal Bellman equation can be expressed as in Equation 9 below.

Figure pat00035
Figure pat00035

Q-learning 설정에서, 최적 벨만 방정식은 하기의 수학식 10와 같이 나타낼 수 있다. In the Q-learning setting, the optimal Bellman equation can be expressed as Equation 10 below.

Figure pat00036
Figure pat00036

수학식 10에서, T'는, 다음 상태의 행동을 나타낸다. Q-learning에서, 에이전트는 Q(Xt, T=1) 및 Q(Xt, T=0)를 모두 서치(search)하여

Figure pat00037
및 Q(Xt, T)의 최대값을 근사할 수 있다(off-policy 방식). In Equation (10), T' represents the behavior of the next state. In Q-learning, the agent searches both Q(X t , T=1) and Q(X t , T=0) to
Figure pat00037
and the maximum value of Q(X t , T) (off-policy method).

치료 T의 개별 인과 영향(individual causal effect)을 추정하기 위해서, 본 발명에 따른 강화학습 방법은, 하기의 수학식 11과 같이

Figure pat00038
를 측정함으로써
Figure pat00039
를 추정할 수 있다. In order to estimate the individual causal effect of treatment T, the reinforcement learning method according to the present invention is as follows:
Figure pat00038
by measuring
Figure pat00039
can be estimated.

Figure pat00040
Figure pat00040

상술한 바와 같이 생성된 인과보상 RICE를 DQN (Deep Q Neural Network) 알고리즘에 적용한 후 강화학습의 성능이 크게 향상된 것을 확인할 수 있었다.After applying the causal compensation R ICE generated as described above to the DQN (Deep Q Neural Network) algorithm, it was confirmed that the performance of reinforcement learning was greatly improved.

한편, 강화학습을 수행하는 단계(S40)는 이에 국한되지 않으며, DQN 이외의 다양한 알고리즘에 적용될 수 있다. 본 발명의 실시예에 따른 인과보상 RICE(X)은, 다양한 종류의 강화학습 알고리즘에서 의학데이터의 보상을 결정할 때 사용 가능하다. Meanwhile, the step S40 of performing reinforcement learning is not limited thereto, and may be applied to various algorithms other than DQN. Causal compensation R ICE (X) according to an embodiment of the present invention can be used when determining compensation for medical data in various types of reinforcement learning algorithms.

도 2는 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 장치의 구성을 개략적으로 나타낸다. 2 schematically shows the configuration of a reinforcement learning apparatus for identifying causality according to an embodiment of the present invention.

도 2에 도시된 인과성을 식별하는 강화학습 장치(10)는 본 실시예의 특징이 흐려지는 것을 방지하기 위하여 본 실시예와 관련된 구성요소들만을 도시한 것이다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The reinforcement learning apparatus 10 for identifying causality shown in FIG. 2 shows only the components related to the present embodiment in order to prevent the features of the present embodiment from being blurred. Accordingly, it can be understood by those of ordinary skill in the art related to the present embodiment that other general-purpose components may be further included in addition to the components shown in FIG. 2 .

본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 장치(10)는 적어도 하나 이상의 프로세서(processor)에 해당하거나, 적어도 하나 이상의 프로세서를 포함할 수 있다. 이에 따라, 인과성을 식별하는 강화학습 장치(10)는 마이크로프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다.The reinforcement learning apparatus 10 for identifying causality according to an embodiment of the present invention may correspond to at least one processor or include at least one processor. Accordingly, the reinforcement learning apparatus 10 for identifying causality may be driven in a form included in other hardware devices such as a microprocessor or a general-purpose computer system.

본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서의 제어 또는 다른 제어 장치에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "메커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 본 발명의 구성요소들이 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.The present invention may be represented in functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, the present invention provides integrated circuit configurations, such as memory, processing, logic, look-up tables, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. can be hired Similar to how components of the present invention may be implemented as software programming or software elements, the present invention includes various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. Further, the present invention may employ prior art techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly, and the components of the present invention are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.

도 2를 참조하면, 인과성을 식별하는 강화학습 장치(10)는 데이터 획득부(11), 샘플링부(12), 인과보상 생성부(13) 및 강화학습부(14)를 포함한다.Referring to FIG. 2 , the reinforcement learning apparatus 10 for identifying causality includes a data acquiring unit 11 , a sampling unit 12 , a causal compensation generating unit 13 , and a reinforcement learning unit 14 .

데이터 획득부(11)는 환자들에 관한 기록된 데이터(logged data)를 획득할 수 있다. 기록된 데이터는, 각각의 환자 i에 대한 기저 정보를 나타내는 Xi, 치료 옵션을 나타내는 T, 결과를 나타내는 Yi를 포함한다. The data acquisition unit 11 may acquire logged data about the patients. The recorded data includes X i representing the baseline information for each patient i , T representing the treatment option, and Y i representing the outcome.

Xi는 환자 i의 연령, 성별, 종양의 1차 부위, 종양 크기, 조직학적 유형(histologic subtype), SEER 단계, 외과 치료, 및 방사선 치료를 나타내는 변수 중 하나 이상을 포함할 수 있다. Xi는 상술한 바와 같은 하나 이상의 변수를 포함하는, 예를 들면 벡터의 형태일 수 있다.X i may include one or more of variables indicative of patient i's age, sex, primary site of tumor, tumor size, histologic subtype, SEER stage, surgical treatment, and radiotherapy. X i may be in the form of, for example, a vector containing one or more variables as described above.

Xi로 나타내어지는 각 개체의 결과 Yi는, 개체 Xi의 생존에 관한 결과를 나타낼 수 있으며, 시간 및 이벤트(예: 사망 또는 생존)를 포함할 수 있다. 예를 들면 Yi는 시간 및 그 시간에서의 생존 여부를 나타내는 변수로 나타낼 수 있다. The outcome Y i of each individual represented by X i may represent the outcome regarding the survival of the individual X i , and may include time and event (eg, death or survival). For example, Y i may be expressed as a variable representing time and whether or not survival occurs at that time.

기록된 데이터는, 예를 들면,

Figure pat00041
와 같이 나타낼 수 있다. The recorded data is, for example,
Figure pat00041
can be expressed as

샘플링부(12)는 임의의 대상 개체(subject) X에 대한 치료와 결과의 인과성을 추정하기 위하여, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군(counterpart)에 포함된 개체(또는 상대군 개체)를 샘플링할 수 있다. The sampling unit 12 is configured to estimate, from the recorded data, a subject (or a relative group) included in the counterpart not receiving the treatment, in order to estimate the causality of the treatment and the result for any subject X. object) can be sampled.

상대군 개체는, 상기 치료 옵션을 경험하지 않은(T≠t) 상대군 환자를 나타내는 개체로, Xi'로 표기될 수 있다. 상대군 개체는, 상기 대상 개체(T=t, X)에 대한 모사-반사실(pseudo-counterfactual)을 나타내기 위해 샘플링된다. The relative group is an individual representing the relative group patient who has not experienced the treatment option (T≠t), and may be denoted by X i '. A counterpart population is sampled to represent a pseudo-counterfactual for the subject entity (T=t, X).

본 발명의 일 실시예에 따르면, 샘플링부(12)는, 상대군 개체 Xi'의 공변량(covariates)을 고려하지 않고(또는 대상 개체 X의 공변량과 비교하지 않고), 기록된 데이터의 집합에서 랜덤하게 N개의 상대군 개체 Xi'를 선택할 수 있다According to one embodiment of the present invention, the sampling unit 12 does not consider the covariates of the relative group X i ' (or does not compare with the covariates of the target individual X), in the set of recorded data. You can randomly select N opposing groups X i '

인과보상 생성부(13)는 상기 대상 개체의 결과

Figure pat00042
와 상기 샘플링된 개체의 결과
Figure pat00043
를 비교하여, 강화학습에 사용될 인과보상을 생성할 수 있다. Causal compensation generating unit 13 is the result of the target object
Figure pat00042
and the result of the sampled object
Figure pat00043
By comparing , it is possible to generate a causal reward to be used in reinforcement learning.

일 실시예에 따르면 인과보상 생성부(13)는, 상대군 환자들(T≠t, X')로부터 랜덤하게 샘플링된 개체 Xi'의 결과

Figure pat00044
와 대상 개체의 결과
Figure pat00045
와의 차이를 인과보상으로 생성 및 사용할 수 있다. 예를 들면, 치료 받지 않은 환자(즉, 상대군 환자)와 치료 받은 환자의 생존 결과를 비교하여 인과보상으로 사용할 수 있다. According to an embodiment, the causal compensation generating unit 13 is a result of the individual X i ' randomly sampled from the relative group patients (T≠t, X').
Figure pat00044
and the result of the target object
Figure pat00045
The difference between and can be generated and used as a causal compensation. For example, it can be used as a causal compensation by comparing the survival outcomes of untreated patients (ie, relative patients) with those of treated patients.

다른 일 실시예에 따르면 인과보상 생성부(13)는, 샘플링된 상대군 개체 Xi'와 대상 개체 X 간의 공변량의 분산

Figure pat00046
에 따라 할인된(discounted) 보상을 인과보상으로 생성 및 사용할 수 있다. According to another embodiment, the causal compensation generating unit 13 is configured to generate a variance of the covariate between the sampled relative group entity X i ' and the target entity X.
Figure pat00046
Accordingly, discounted rewards can be created and used as causal rewards.

예를 들면 인과보상 생성부(13)는, i번째 샘플링된 상대군 개체와 대상 개체의 결과 차이(

Figure pat00047
)에, 상기 i번째 상대군 개체와 대상 개체의 공변량 거리(
Figure pat00048
)가 멀수록 작아지는 가중치(
Figure pat00049
)를 곱하여 인과보상으로 생성할 수 있다. 이 경우 인과보상은 수학식 8과 같을 수 있다. For example, the causal compensation generating unit 13 may generate a difference (
Figure pat00047
), the covariate distance (
Figure pat00048
) gets smaller as the distance increases (
Figure pat00049
) can be multiplied to generate causal compensation. In this case, the causal compensation may be equal to Equation (8).

또 다른 일 실시예에 따르면 인과보상 생성부(13)는, 샘플링된 상대군 개체의 결과와 대상 개체의 결과에 각각 성향점수의 역수(IPS)를 곱한 결과의 차이를, 상기 상대군 개체와 대상 개체의 결과 차이(

Figure pat00050
)로 사용할 수 있다. 예를 들면 인과보상 생성부(13)는, 상대군 개체의 결과와 대상 개체의 결과에 각각 성향점수의 역수(IPS)를 곱한 결과의 차이를 이용하여 인과보상을 생성할 수 있다. According to another exemplary embodiment, the causal compensation generating unit 13 calculates the difference between the sampled relative group individual result and the target individual result multiplied by the inverse of the propensity score (IPS), respectively, between the relative group individual and the target object. The difference between the results of the object (
Figure pat00050
) can be used as For example, the causal reward generating unit 13 may generate a causal reward by using a difference between the result of the opponent group and the result of multiplying the result of the target entity by the reciprocal of the propensity score (IPS).

또 다른 일 실시예에 따르면 인과보상 생성부(13)는, 샘플링된 상대군 개체와 대상 개체 간의 교차 엔트로피(cross entropy)에 따라 할인된(discounted) 보상을 인과보상으로 생성 및 사용할 수 있다. According to another embodiment, the causal compensation generating unit 13 may generate and use a discounted compensation as a causal compensation according to cross entropy between the sampled relative group and the target entity.

강화학습부(14)는, 인과보상 생성부(13)에서 생성된 인과보상을 사용하여 강화학습을 수행할 수 있다. 강화학습부(14)는, 생성된 인과보상을 DQN (Deep Q Neural Network)에 적용할 수 있다. 강화학습부(14)는, 생성된 인과보상을 Q-learning에 적용할 수 있다. 강화학습부(14)는, 상기 인과보상의 무한합 또는 유한합의 기대값을 최대화하는 최적의 정책(policy)을 학습할 수 있다.The reinforcement learning unit 14 may perform reinforcement learning using the causal reward generated by the causal reward generating unit 13 . The reinforcement learning unit 14 may apply the generated causal reward to a Deep Q Neural Network (DQN). The reinforcement learning unit 14 may apply the generated causal reward to Q-learning. The reinforcement learning unit 14 may learn an optimal policy for maximizing an expected value of an infinite sum or a finite sum of the causal reward.

한편, 도 1에 도시된 본 발명의 일 실시예에 따른 인과성을 식별하는 강화학습 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성할 수 있고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.On the other hand, the reinforcement learning method for identifying causality according to an embodiment of the present invention shown in FIG. 1 can be written as a program that can be executed on a computer, and is a general-purpose method for operating the program using a computer-readable recording medium. It may be implemented in a digital computer. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).

본 발명은 도면에 도시된 일 실시예를 참고로 하여 설명하였으나, 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, it will be understood that this is merely exemplary, and that those of ordinary skill in the art can make various modifications and variations therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

Claims (9)

환자들에 관한 기록된 데이터를 획득하는 단계;
임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 단계;
상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 단계;
상기 인과보상을 사용한 강화학습을 수행하는 단계;를 포함하는,
인과성을 식별하는 강화학습 방법.
obtaining recorded data about the patients;
sampling, from the recorded data, subjects included in the non-treated relative group to estimate causality of treatment and outcome for any subject subject;
generating a causal reward by comparing the result of the target entity with the result of the sampled entity;
Including; performing reinforcement learning using the causal reward
A reinforcement learning method to identify causality.
제1항에 있어서,
상기 인과보상을 생성하는 단계는,
상기 대상 개체의 결과와 상기 샘플링된 개체의 결과의 차이가, 상기 대상 개체의 사실(factual) 결과와 상기 대상 개체의 반사실(counterfactual) 결과의 차이에 상응하도록, 상기 대상 개체의 결과와 상기 샘플링된 개체의 결과의 차이를 변형하는 과정을 단계를 포함하는,
인과성을 식별하는 강화학습 방법.
According to claim 1,
The step of generating the causal compensation comprises:
such that a difference between a result of the subject subject and a result of the sampled subject corresponds to a difference between a factual result of the subject subject and a counterfactual result of the subject subject; comprising the steps of transforming the difference in the outcome of an object that has been
A reinforcement learning method to identify causality.
제1항에 있어서,
상기 인과보상을 생성하는 단계는,
i번째 샘플링된 개체와 상기 대상 개체의 결과 차이
Figure pat00051
에, 상기 i번째 샘플링된 개체와 상기 대상 개체의 공변량 거리(covariates distance)에 기초한 가중치를 곱하여 상기 인과보상으로 생성하는 단계를 포함하는,
인과성을 식별하는 강화학습 방법.
According to claim 1,
The step of generating the causal compensation comprises:
The difference in results between the i-th sampled object and the target object
Figure pat00051
, multiplying the i-th sampled entity and a weight based on a covariates distance of the target entity to generate the causal compensation,
A reinforcement learning method to identify causality.
제3항에 있어서,
상기 인과보상을 생성하는 단계는,
상기 i번째 샘플링된 개체의 결과와 상기 대상 개체의 결과에 각각 성향점수(propensity score)의 역수를 곱한 결과의 차이를, 상기 결과 차이
Figure pat00052
로 사용하는 단계를 더 포함하는,
인과성을 식별하는 강화학습 방법.
4. The method of claim 3,
The step of generating the causal compensation comprises:
The difference between the result of multiplying the result of the i-th sampled individual and the result of the target entity by the reciprocal of the propensity score, the result difference
Figure pat00052
Further comprising the step of using as
A reinforcement learning method to identify causality.
제1항에 있어서,
상기 강화학습을 수행하는 단계는,
상기 인과보상을 DQN (Deep Q Neural Network)에 적용하는 단계를 포함하는,
인과성을 식별하는 강화학습 방법.
According to claim 1,
The step of performing the reinforcement learning is,
Comprising the step of applying the causal compensation to DQN (Deep Q Neural Network),
A reinforcement learning method to identify causality.
제1항에 있어서,
상기 환자들에 관한 기록된 데이터를 획득하는 단계는,
각 환자의 연령, 성별, 종양의 1차 부위, 종양 크기, 조직학적 유형(histologic subtype), SEER 단계, 외과 치료, 및 방사선 치료, 의료 영상 데이터, 혈압, 당뇨, 흡연, 체질량지수 중 하나 이상을 포함하는 임상 정보를 나타내는 변수를 획득하는 단계를 포함하는,
인과성을 식별하는 강화학습 방법.
According to claim 1,
Obtaining recorded data about the patients comprises:
One or more of each patient's age, sex, tumor primary site, tumor size, histologic subtype, SEER stage, surgical and radiotherapy, medical imaging data, blood pressure, diabetes, smoking, and body mass index obtaining a variable indicative of clinical information comprising,
A reinforcement learning method to identify causality.
제1항에 있어서,
상기 샘플링된 개체의 결과는,
상기 샘플링된 개체의 생존 기간을 포함하는,
인과성을 식별하는 강화학습 방법.
According to claim 1,
The result of the sampled object is,
comprising the survival period of the sampled individual,
A reinforcement learning method to identify causality.
환자들에 관한 기록된 데이터를 획득하는 데이터 획득부;
임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 샘플링부;
상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 인과보상 생성부;
상기 인과보상을 사용한 강화학습을 수행하는 강화학습부;를 포함하는,
인과성을 식별하는 강화학습 장치.
a data acquisition unit for acquiring recorded data about patients;
a sampling unit configured to sample, from the recorded data, subjects included in the relative group that did not receive the treatment, in order to estimate causality of treatment and results for any target subject;
a causal compensation generating unit for generating a causal compensation by comparing the result of the target entity with the result of the sampled entity;
Containing, a reinforcement learning unit that performs reinforcement learning using the causal reward
A reinforcement learning device that identifies causality.
비-일시적(non-transitory) 컴퓨터-판독 가능(computer-readable) 저장(storage) 매체(medium)에 있어서,
환자들에 관한 기록된 데이터를 획득하는 동작과,
임의의 대상 개체에 대한 치료와 결과의 인과성을 추정하기 위해, 상기 기록된 데이터로부터, 상기 치료를 받지 않은 상대군에 포함된 개체를 샘플링하는 동작과
상기 대상 개체의 결과와 상기 샘플링된 개체의 결과를 비교하여, 인과보상을 생성하는 동작과,
상기 인과보상을 사용한 강화학습을 수행하는 동작을 실행하기 위한 하나 이상의 프로그램들을 저장하기 위한 비-일시적 컴퓨터-판독 가능 저장 매체.
A non-transitory computer-readable storage medium comprising:
obtaining recorded data pertaining to the patients;
sampling, from the recorded data, subjects included in the non-treated relative group to estimate causality of treatment and outcome for any subject subject;
generating a causal reward by comparing the result of the target entity with the result of the sampled entity;
A non-transitory computer-readable storage medium for storing one or more programs for executing an operation of performing reinforcement learning using the causal reward.
KR1020200020549A 2020-02-19 2020-02-19 Reinforcement learning method, device, and program for identifying causal effect in logged data KR102440817B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200020549A KR102440817B1 (en) 2020-02-19 2020-02-19 Reinforcement learning method, device, and program for identifying causal effect in logged data
PCT/KR2021/002024 WO2021167344A1 (en) 2020-02-19 2021-02-17 Reinforcement learning method, device, and program for identifying causality from recorded data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200020549A KR102440817B1 (en) 2020-02-19 2020-02-19 Reinforcement learning method, device, and program for identifying causal effect in logged data

Publications (2)

Publication Number Publication Date
KR20210105724A true KR20210105724A (en) 2021-08-27
KR102440817B1 KR102440817B1 (en) 2022-09-06

Family

ID=77391099

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200020549A KR102440817B1 (en) 2020-02-19 2020-02-19 Reinforcement learning method, device, and program for identifying causal effect in logged data

Country Status (2)

Country Link
KR (1) KR102440817B1 (en)
WO (1) WO2021167344A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230076399A (en) * 2021-11-24 2023-05-31 고려대학교 산학협력단 Method and apparatus for reasoning and reinforcing decision in Alzheimer's disease diagnosis model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046773A1 (en) * 2016-08-11 2018-02-15 Htc Corporation Medical system and method for providing medical prediction
KR20190048004A (en) * 2017-10-30 2019-05-09 삼성에스디에스 주식회사 Method for detecting an anomalous behavior based on machine-learning and Apparatus thereof
KR20190069582A (en) * 2016-11-04 2019-06-19 딥마인드 테크놀로지스 리미티드 Reinforcement learning through secondary work

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172374B1 (en) * 2017-03-16 2020-10-30 사회복지법인 삼성생명공익재단 Apparatus, Method and Computer Program for Predicting the Prognosis of Synovial Sarcoma Using Artificial Neural Network
KR102061800B1 (en) * 2017-07-18 2020-02-11 사회복지법인 삼성생명공익재단 Method, Apparatus and Program for Predicting Prognosis of Ovarian Cancer Using Machine Learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046773A1 (en) * 2016-08-11 2018-02-15 Htc Corporation Medical system and method for providing medical prediction
KR20190069582A (en) * 2016-11-04 2019-06-19 딥마인드 테크놀로지스 리미티드 Reinforcement learning through secondary work
KR20190048004A (en) * 2017-10-30 2019-05-09 삼성에스디에스 주식회사 Method for detecting an anomalous behavior based on machine-learning and Apparatus thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FREDRIK D.JOHANSSON 등. Learning Representations for Counterfactual Inference, 2018. 6. 6(https://arxiv.org/abs/1605.03661).* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230076399A (en) * 2021-11-24 2023-05-31 고려대학교 산학협력단 Method and apparatus for reasoning and reinforcing decision in Alzheimer's disease diagnosis model

Also Published As

Publication number Publication date
KR102440817B1 (en) 2022-09-06
WO2021167344A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
Kallus et al. Interval estimation of individual-level causal effects under unobserved confounding
JP6902473B2 (en) Adaptive treatment management system including workflow management engine
US7877272B2 (en) Computer instructions for guiding differential diagnosis through information maximization
US7487134B2 (en) Medical risk stratifying method and system
RU2011116406A (en) SYSTEM AND METHOD FOR COMBINING CLINICAL SIGNS AND SIGNS OF IMAGES FOR DIAGNOSTIC USING A COMPUTER
CN111565677A (en) System and method for intraocular lens selection
US20220157459A1 (en) Data analytics for predictive modeling of surgical outcomes
CN112868068A (en) Processing fundus camera images using machine learning models trained with other modes
KR102440817B1 (en) Reinforcement learning method, device, and program for identifying causal effect in logged data
EP4131279A1 (en) Experience engine-method and apparatus of learning from similar patients
Qian et al. Breast cancer diagnosis using evolving deep convolutional neural network based on hybrid extreme learning machine technique and improved chimp optimization algorithm
Kamran et al. Prediction of infarction volume and infarction growth rate in acute ischemic stroke
Petersen et al. The path toward equal performance in medical machine learning
Harris et al. Task-evoked pupillary responses track precision-weighted prediction errors and learning rate during interceptive visuomotor actions
US20070067181A1 (en) System and method for intelligence building in an expert system
Alban et al. Expected value of information methods for contextual ranking and selection: clinical trials and simulation optimization
Polsky et al. Selection bias in observational data
JP2013205987A (en) Determination program and determination device
JP2011123574A (en) Inference device and method, and program
Steward et al. Risk‐adjusted Monitoring of Healthcare Quality: Model Selection and Change‐point Estimation
Nakamae et al. AI prediction of extracorporeal shock wave lithotripsy outcomes for ureteral stones by machine learning-based analysis with a variety of stone and patient characteristics
Antonelli et al. Bayesian model averaging in causal inference
US20230096286A1 (en) Medical information processing apparatus, medical information processing method, and recording medium
US11836926B2 (en) System and method for contouring a set of medical images based on deep learning algorithm and anatomical properties
US20230085062A1 (en) Generating a recommended periodic healthcare plan

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant