KR20230018929A - 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템 - Google Patents

환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템 Download PDF

Info

Publication number
KR20230018929A
KR20230018929A KR1020210100989A KR20210100989A KR20230018929A KR 20230018929 A KR20230018929 A KR 20230018929A KR 1020210100989 A KR1020210100989 A KR 1020210100989A KR 20210100989 A KR20210100989 A KR 20210100989A KR 20230018929 A KR20230018929 A KR 20230018929A
Authority
KR
South Korea
Prior art keywords
patient
information
target patient
data
prediction
Prior art date
Application number
KR1020210100989A
Other languages
English (en)
Inventor
안종석
이정훈
Original Assignee
주식회사 루닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루닛 filed Critical 주식회사 루닛
Priority to KR1020210100989A priority Critical patent/KR20230018929A/ko
Priority to EP22849678.2A priority patent/EP4379739A1/en
Priority to PCT/KR2022/006463 priority patent/WO2023008699A1/ko
Priority to US17/858,330 priority patent/US20230030313A1/en
Publication of KR20230018929A publication Critical patent/KR20230018929A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 개시는 적어도 하나의 컴퓨팅 장치에 의해 수행되는, 환자에 대한 해석가능한 예측 결과를 생성하는 방법에 관한 것이다. 이 방법은, 대상 환자의 의료 이미지 데이터를 수신하는 단계, 대상 환자의 추가 의료 데이터를 수신하는 단계 및 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계를 포함한다.

Description

환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING INTERPRETABLE PREDICTIVE RESULT FOR PATIENT}
본 개시는 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템에 관한 것으로, 보다 구체적으로, 기계학습 예측 모델을 이용하여 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과를 생성하는 방법 및 장치를 제공하는 것이다.
딥러닝 모델은 다차원의 데이터를 입력 받을 수 있는 복잡한 모델에 해당하며, feature selection과 prediction을 동시에 수행할 수 있다는 점에서 큰 발전을 이뤄오고 있다. 예를 들어, 딥러닝 기술의 발전으로 인해, COVID-19, 감염병, 폐암 및 다양한 폐질환을 가진 환자에게서, X-ray, CT, MRI 등의 의료 영상을 기반으로 환자의 인터벤션(intervention) 및 예후(prognosis)를 예측하는 시스템을 만드는 방법론들의 개발이 가능했다.
그러나, 환자의 예후 및 인터벤션이라는 미래의 이벤트를 예측하는 것은 해석이 불가능한 Black-box 시스템을 통해 수행되므로, 의료인에게 예측 결과에 대한 직접적인 근거를 제공할 수 없었다. 환자의 예후 및 인터벤션에 대해 예측되는 결과 값만을 제공하는 경우, 의료진이 환자에 대하여 임상적 결정을 하는데 큰 도움이 되지 않으며, 오히려 혼란과 어려움을 가중할 수 있다는 문제점이 있었다.
본 개시는 상기와 같은 문제점을 해결하기 위한 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템을 제공한다.
본 개시는 방법, 장치(시스템) 또는 명령어들을 저장하는 컴퓨터 판독 가능한 저장 매체, 컴퓨터 프로그램을 포함한 다양한 방식으로 구현될 수 있다.
본 개시의 일 실시예에 따른, 적어도 하나의 컴퓨팅 장치에 의해 수행되는, 환자에 대한 해석가능한 예측 결과를 생성하는 방법은, 대상 환자의 의료 이미지 데이터를 수신하는 단계, 대상 환자의 추가 의료 데이터를 수신하는 단계 및 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계를 포함한다.
본 개시의 일 실시예에서, 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 단계를 더 포함한다.
본 개시의 일 실시예에서, 대상 환자에 대한 예측 결과에 대한 정보 또는 인자에 대한 정보 중 적어도 하나를 사용자 단말에 제공하는 단계를 더 포함한다.
본 개시의 일 실시예에서, 기계학습 예측 모델은, 제1 서브 예측 모델 및 제2 서브 예측 모델을 포함하고, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계는, 제1 서브 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하는 단계 및 제2 서브 예측 모델을 이용하여, 하나 이상의 특징 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계를 포함한다.
본 개시의 일 실시예에서, 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 단계를 더 포함하고, 인자에 대한 정보를 생성하는 단계는, 제2 서브 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득하는 단계를 포함하고, 복수의 인자는, 대상 환자의 추가 의료 데이터 또는 하나 이상의 특징 중 적어도 하나를 포함한다.
본 개시의 일 실시예에서, 인자에 대한 정보를 생성하는 단계는, 중요도에 대한 정보에 기초하여, 복수의 인자 중 적어도 하나를 예측 이유로서 결정하는 단계를 더 포함한다.
본 개시의 일 실시예에서, 하나 이상의 특징은, 대상 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징을 포함한다.
본 개시의 일 실시예에서, 제1 서브 예측 모델은, 참조 환자의 의료 이미지 데이터를 기초로 하나 이상의 참조 특징을 추출하도록 학습되고, 제2 서브 예측 모델은, 참조 환자의 추가 의료 데이터와 하나 이상의 참조 특징을 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습된다.
본 개시의 일 실시예에서, 제2 서브 예측 모델을 이용하여, 하나 이상의 특징 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계는, 대상 환자의 추가 의료 데이터와 하나 이상의 특징을 연결(concatenate)하여 제2 서브 예측 모델의 입력 데이터를 생성하는 단계 및 생성된 입력 데이터를 제2 서브 예측 모델에 입력함으로써, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계를 포함한다.
본 개시의 일 실시예에서, 대상 환자의 추가 의료 데이터는 대상 환자의 임상 데이터, 랩(lab) 데이터 또는 생물학적 데이터 중 적어도 하나를 포함한다.
본 개시의 일 실시예에 따른 상술된 환자에 대한 해석가능한 예측 결과 생성하는 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공된다.
본 개시의 일 실시예에 따른 컴퓨팅 장치는, 하나 이상의 인스트럭션(instructions)을 저장하는 메모리 및 저장된 하나 이상의 인스트럭션을 실행함으로써, 대상 환자의 의료 이미지 데이터를 수신하고, 대상 환자의 추가 의료 데이터를 수신하고, 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 구성된 프로세서를 포함한다.
본 개시의 일부 실시예들에 따르면, 환자에 대한 해석가능한 예측 결과를 생성하기 위해, 이미지 데이터뿐만 아니라 다양한 유형의 데이터를 입력 받는 기계학습 모델(즉, multi-modal 기반의 모델)이 사용될 수 있다. 이에 따라, 대상 환자의 의료 이미지 데이터뿐만 아니라 추가 의료 데이터(예를 들어, 임상 데이터, 생물학적 데이터, 랩 데이터 등)를 이용하여 대상 환자의 예후가 예측될 수 있으며, 예측의 정확도가 향상될 수 있다.
본 개시의 일부 실시예들에 따르면, 환자들의 예후 및/또는 필요 조치에 대한 예측 결과에 대한 정보를 제공받음으로써, 사용자(예를 들어, 의료진 등)는 한정된 자원(예를 들어, 인력, 장치, 약제 등)을 효율적이고, 효과적으로 관리할 수 있다. 예를 들어, 감염병의 유행 등이 발생하여 한정된 의료 자원 아래 응급 상황에서 많은 환자들을 봐야하는 경우, 환자들에 대한 예측 결과에 대한 정보에 따라 응급 환자들 또는 예후가 좋아질 여지가 있는 환자들에게 우선적으로 의료 자원을 지원함으로써, 많은 환자들의 예후를 증진시킬 수 있다.
본 개시의 일부 실시예들에 따르면, 환자에 대한 해석가능한 예측을 수행하기 위해, 해석가능한 기계학습 예측 모델이 제공될 수 있다. 여기서, 해석가능한 기계학습 예측 모델은, 의료 이미지 데이터로부터 사용자가 해석할 수 있는 정보들(예를 들어, 표현형 특징 등)을 추출하는 모델과 예측을 수행하는 데 있어서 복수의 인자들 각각의 중요도에 대한 정보(예를 들어, 중요도 순위 등)를 제공하는 모델을 포함할 수 있다. 이에 따라, 사용자는 환자에 대한 예측 결과에 대한 정보 및/또는 환자에 대한 예측에 영향을 미친 인자에 대한 정보를 제공받을 수 있다. 즉, 사용자는 인자에 대한 정보를 통해 예측 결과에 대한 정보를 보다 신뢰하게 될 수 있으며, 제공받은 정보들에 기초하여 적절한 근거를 가지고 임상적 결정을 수행할 수 있다.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시에 속하는 기술 분야에서 통상의 지식을 가진 자(이하, '통상의 기술자'라 함)에게 명확하게 이해될 수 있을 것이다.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템이 환자에 대한 해석가능한 예측 결과를 제공하는 시스템을 나타내는 예시적 구성도이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 환자에 대한 해석가능한 예측 결과를 생성하는 방법을 나타내는 흐름도이다.
도 4는 본 개시의 일 실시예에 따라 기계학습 예측 모델을 이용하여, 환자에 대한 예측 결과에 대한 정보 및 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 예시를 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따라 제1 서브 예측 모델 및 제2 서브 예측 모델을 이용하여, 환자에 대한 예측 결과에 대한 정보 및 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 예시를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 Convolutional Neural Network(CNN) 기반의 제1 서브 예측 모델을 이용하여 의료 이미지 데이터로부터 하나 이상의 특징을 추출하는 예시를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따라 제2 서브 예측 모델을 이용하여 환자에 대한 예측 결과에 대한 정보를 생성하는 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따라 환자에 대한 예측을 수행하는 경우의 예측 성능을 나타내는 표이다.
도 9는 본 개시의 일 실시예에 따라, 대상 환자에 대한 예측에 있어서, 복수의 인자가 미치는 영향을 나타내는 표이다.
도 10은 본 개시의 일 실시예에 따른 인공신경망 모델을 나타내는 예시도이다.
도 11은 본 개시의 일 실시예에 따른 환자에 대한 해석가능한 예측 결과를 생성하는 예시적인 컴퓨팅 장치(예를 들어, 정보 처리 시스템) 구성도이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만 '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.
본 개시에서, '해석가능한 예측 결과'는 예측에 대한 이유나 근거를 제시가능한 예측 결과 및/또는 예측 결과에 대한 정보를 지칭할 수 있다. 예를 들어, 해석가능한 예측 결과는 기계학습 예측 모델이 예측을 수행하는데 있어서, 영향을 미친 인자들에 대한 정보(예를 들어, 인자들의 중요도 등)를 제공할 수 있는 예측 결과 및/또는 예측 결과에 대한 정보를 포함할 수 있다. 이와 유사하게, 본 개시에서, '해석가능한 모델', '해석가능한 예측 모델' 및/또는 '해석가능한 기계학습 예측 모델'은 해석가능한 예측 결과를 생성(또는 출력)할 수 있는 모델을 지칭할 수 있다. 즉, 해석가능한 모델, 해석가능한 예측 모델 및/또는 해석가능한 기계학습 예측 모델은 예측 결과와 함께 예측에 대한 이유나 근거를 제시가능한 모델에 해당할 수 있다.
본 개시에서, '의료 이미지 데이터' 및/또는 '의료 이미지'는 환자들의 인체에서 나타나는 표현형 특징을 추출할 수 있는 이미지 및/또는 영상을 지칭할 수 있다. 예를 들어, 의료 이미지 데이터는 흉부 방사선 이미지(Chest radiograph), X-ray, Computed Tomography(CT), Positron emission tomography(PET), Magnetic Resonance Imaging(MRI), 초음파 영상, Sonography(Ultrasound, US), Functional Magnetic Resonance Imaging (fMRI), 병리 조직 이미지(Digital pathology whole slide image, WSI), Mammography(MMG), Digital Breast Tomosynthesis(DBT) 등 모든 유형(modality)의 이미지 데이터 및/또는 영상 데이터를 포함할 수 있다.
본 개시에서, '임상 데이터'는 환자에게서 획득하고 기록할 수 있는 모든 정보를 포함할 수 있다. 예를 들어, 임상 데이터는 랩(lab) 데이터와 생물학적 데이터를 포함할 수 있다. 일 실시예에서, 임상 데이터는 의료진이 환자에게서 획득하고 기록할 수 있는 정보로서, 환자에게서 병력청취를 통해 얻은 정보(예: 주소, 증상, 과거병력, 가족력, 흡연 여부 등), 신체검진 결과(예: 환자의 혈압, 심박동수, 복부 진찰 등), 추가 검사 데이터(예: 피검사 결과, 심전도, 청 검사 등)을 포함할 수 있다. 예를 들어, 임상 데이터는 나이, 성별, 혈압, 체온, 기침, 기저질환 등의 환자에 대한 모든 임상 정보를 포함할 수 있다. 예를 들어, 암 환자의 경우, 해당 환자의 임상 데이터는 cancer TNM stage에 대한 정보를 포함할 수 있으나, 이에 한정되지 않는다.
본 개시에서, '생물학적 데이터'는 유전체 데이터, DNA mutation, copy-number, RNA expression, protein expression, methylation, microbiome 등을 포함할 수 있다.
본 개시에서, 'A에 대한 정보'는 A 자체, A와 연관된 데이터 및/또는 A와 연관된 수치 등을 포함할 수 있다. 예를 들어, '환자에 대한 예측 결과에 대한 정보'는 '환자에 대한 예측 결과', '환자에 대한 예측 수행 과정에서 생성된 데이터', '환자에 대한 예측 결과의 정확도' 등을 포함할 수 있다. 또한, '예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보'는 '예측 결과에 대한 정보를 생성하는데 영향을 미친 인자', '해당 인자가 예측 결과에 대한 정보를 생성하는데 있어서 미친 영향을 나타내는 중요도', '예측 결과에 대한 정보를 생성하는데 영향을 미친 인자들 사이의 상대적 중요도' 등을 포함할 수 있다. 예를 들어, '예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보'는 환자의 예후를 예측하는데 있어서 발열에 대한 인자가 근육통에 대한 인자보다 5배 중요하다는 정보를 포함할 수 있다.
본 개시에서, '인자'는 기계학습 모델의 복수의 레이어 중 적어도 하나로 입력되는 데이터 또는 출력되는 데이터를 지칭할 수 있다. 예를 들어, 인자는 기계학습 모델의 입력 데이터, 예측을 수행 과정에서 생성되는 데이터, 입력 데이터로부터 추출되는 정보 등을 포함할 수 있다. 일 실시예에서, 인자는 환자의 의료 이미지 데이터(예: 흉부엑스선, 복부 CT, 뇌 MRI 등), 임상 데이터(예: 인후통 여부, 발열 여부, 혈압 수치 등의 증상과 징후, 환자의 문진 결과), 생물학적 데이터, 랩 데이터(예: 백혈구 수치, 혈소판 수치 등의 피검사 결과) 등을 포함할 수 있다. 추가적으로 또는 대안적으로, 인자는 환자가 속한 주변 환경(예를 들어, 의료 환경, 치료 환경, 의료 인프라, 의료 자원 등)에 대한 정보를 포함할 수 있다.
본 개시에서, '목적 데이터'는 기계학습 모델의 학습에 사용될 수 있는 임의의 데이터 또는 데이터 아이템을 지칭할 수 있다. 예를 들어, 목적 데이터는 의료 이미지 데이터 및/또는 추가 의료 데이터를 포함할 수 있으나, 이에 한정되지 않으며, 기계학습 모델의 학습에 사용될 수 있는 임의의 데이터가 목적 데이터에 해당될 수 있다. 또한, 목적 데이터는 어노테이션 작업을 통해 레이블 정보가 태깅될 수 있다.
본 개시에서, '기계학습 모델' 및/또는 '인공신경망 모델'은 주어진 입력에 대한 해답(answer)을 추론하는데 사용하는 임의의 모델을 포함할 수 있다. 일 실시예에 따르면, 기계학습 모델은 입력 레이어(층), 복수 개의 은닉 레이어 및 출력 레이어를 포함한 인공신경망 모델을 포함할 수 있다. 여기서, 각 레이어는 복수의 노드를 포함할 수 있다. 예를 들어, 기계학습 모델은 대상 환자의 의료 이미지 데이터 및/또는 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 출력하도록 학습될 수 있다. 다른 예로서, 기계학습 모델은 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하도록 학습될 수 있다. 또 다른 예로서, 기계학습 모델은 대상 환자의 추가 의료 데이터와 하나 이상의 특징을 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 출력하도록 학습될 수 있다. 이 경우, 어노테이션 작업을 통해 생성된 레이블 정보가 기계학습 모델을 학습시키는데 이용될 수 있다. 또한, 기계학습 모델은 기계학습 모델에 포함된 복수의 노드와 연관된 가중치를 포함할 수 있다. 여기서, 가중치는 기계학습 모델과 연관된 임의의 파라미터를 포함할 수 있다.
본 개시에서, '학습'은 학습 데이터 및/또는 정답 레이블을 이용하여 기계학습 모델과 연관된 가중치를 변경하는 임의의 과정을 지칭할 수 있다. 일 실시예에 따르면, 학습은 학습 대상의 의료 이미지 데이터 및 정답 레이블(예를 들어, 하나 이상의 특징)을 이용하여 기계학습 모델(예를 들어, 제1 서브 예측 모델)을 한번 이상의 순방향 전파(forward propagation) 및 역방향 전파(backward propagation)를 통해 기계학습 모델과 연관된 가중치를 변경하거나 업데이트하는 과정을 지칭할 수 있다. 다른 실시예에 따르면, 학습은 학습 대상의 의료 이미지 데이터로부터 추출된 하나 이상의 특징, 학습 대상의 추가 의료 데이터 및 정답 레이블(예를 들어, 학습 대상의 예후 및/또는 필요 조치 등)을 이용하여 기계학습 모델(예를 들어, 제2 서브 예측 모델)을 한번 이상의 순방향 전파 및 역방향 전파를 통해 기계학습 모델과 연관된 가중치를 변경하거나 업데이트하는 과정을 지칭할 수 있다.
본 개시에서, '레이블 정보' 및/또는 '정답 레이블'란, 데이터 샘플의 정답 정보로써 어노테이션 작업의 결과로 획득된 정보를 지칭할 수 있다. 정답 레이블 또는 정답은 당해 기술 분야에서 어노테이션(annotation), 어노테이션 정보, 태그 등의 용어와 혼용되어 사용될 수 있다. 예를 들어, 정답 레이블, 정답, 어노테이션 정보 등은 사용자의 어노테이션 작업 수행에 따라 결정된 정보를 지칭할 수 있다. 다른 예로서, 정답 레이블, 정답, 어노테이션 정보 등은 어노테이션 장치의 어노테이션 작업 수행에 따라 결정된 정보를 지칭할 수 있다.
본 개시에서, '복수의 A 각각' 은 복수의 A에 포함된 모든 구성 요소의 각각을 지칭하거나, 복수의 A에 포함된 일부 구성 요소의 각각을 지칭할 수 있다. 예를 들어, 복수의 인자 각각은, 복수의 인자에 포함된 모든 인자의 각각을 지칭하거나 복수의 인자에 포함된 일부 인자의 각각을 지칭할 수 있다.
본 개시에서, '인스트럭션(instruction)'이란, 기능을 기준으로 묶인 하나 이상의 명령어들로서, 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 지칭할 수 있다.
본 개시에서, '사용자'는 사용자 단말을 이용하는 자를 지칭할 수 있다. 예를 들어, 사용자는 환자에 대한 해석가능한 예측 결과를 제공받는 의료진, 환자, 연구원 등을 포함할 수 있다. 또한, 사용자는 사용자 단말을 지칭할 수 있으며, 이와 반대로, 사용자 단말은 사용자를 지칭할 수 있다. 즉, 사용자와 사용자 단말은 본 명세서에서 혼용되어 사용될 수 있다.
도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템이 환자에 대한 해석가능한 예측 결과를 제공하는 시스템을 나타내는 예시적 구성도이다. 도시된 바와 같이, 환자에 대한 해석가능한 예측 결과를 제공하는 시스템은 정보 처리 시스템(100), 사용자 단말(110) 및 저장 시스템(120)을 포함할 수 있다. 여기서, 정보 처리 시스템(100)은 사용자 단말(110) 및 저장 시스템(120)의 각각과 연결되어 통신 가능하도록 구성될 수 있다. 도 1에서는 하나의 사용자 단말(110)이 도시되어 있으나, 이에 한정되지 않으며, 복수의 사용자 단말(110)이 정보 처리 시스템(100)과 연결되어 통신되도록 구성될 수 있다. 또한, 도 1에서는 정보 처리 시스템(100)이 하나의 컴퓨팅 장치로서 도시되어 있으나, 이에 한정되지 않으며, 정보 처리 시스템(100)은 복수의 컴퓨팅 장치를 통해 정보 및/또는 데이터를 분산 처리하도록 구성될 수 있다. 또한, 도 1에서는 저장 시스템(120)이 하나의 장치로서 도시되어 있으나, 이에 한정되지 않으며, 복수의 저장 장치로 구성되거나 클라우드(cloud)를 지원하는 시스템으로 구성될 수 있다. 또한, 도 1에서는 환자에 대한 해석가능한 예측 결과를 제공하는 시스템의 각각의 구성요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로, 복수의 구성 요소가 실제 물리적 환경에서 서로 통합되는 형태로 구현될 수 있다.
정보 처리 시스템(100) 및 사용자 단말(110)은 환자에 대한 해석가능한 예측 결과를 생성하고, 제공하는데 이용되는 임의의 컴퓨팅 장치이다. 여기서, 컴퓨팅 장치는, 컴퓨팅 기능이 구비된 임의의 종류의 장치를 지칭할 수 있으며, 예를 들어, 노트북, 데스크톱(desktop), 랩탑(laptop), 서버, 클라우드 시스템 등이 될 수 있으나, 이에 한정되지 않는다.
정보 처리 시스템(100)은 대상 환자의 의료 이미지 데이터 및/또는 대상 환자의 추가 의료 데이터를 수신할 수 있다. 여기서, 대상 환자의 추가 의료 데이터는, 대상 환자의 임상 데이터, 랩(lab) 데이터 및/또는 생물학적 데이터를 포함할 수 있다. 예를 들어, 정보 처리 시스템(100)은 저장 시스템(120)(예를 들어, 전자 의무 기록, 처방 전달 시스템, 의료 영상 시스템, 검사 정보 시스템 등) 및/또는 사용자 단말(110)으로부터 대상 환자의 의료 이미지 데이터 및/또는 대상 환자의 추가 의료 데이터를 수신할 수 있다. 정보 처리 시스템(100)은 환자에 대한 해석가능한 예측 결과를 생성하여, 사용자 단말(110)을 통해 사용자(130)에게 제공할 수 있다.
일 실시예에서, 정보 처리 시스템(100)은 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 여기서, 대상 환자에 대한 예측 결과에 대한 정보는 대상 환자를 치료하는데 사용될 수 있는 정보, 대상 환자를 치료하는 방식에 영향을 줄 수 있는 임의의 정보(clinical management) 등을 포함할 수 있다. 예를 들어, 이러한 정보는 대상 환자의 상태에 관한 예후(prognosis), 특정 상황에서 환자에게 요구되는 필요 조치(intervention)(예: 치료 방침과 치료 시기), 또는 약물 반응성, 신체 내에 포함되는 모든 임상관련 수치의 변화 등을 포함할 수 있다. 추가적으로 또는 대안적으로, 정보 처리 시스템(100)은 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성할 수 있다.
정보 처리 시스템(100)은 대상 환자에 대한 예측 결과에 대한 정보 및/또는 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 사용자 단말(110)에 제공할 수 있다. 사용자 단말(110)은 정보 처리 시스템(100)으로부터 대상 환자에 대한 예측 결과에 대한 정보 및/또는 인자에 대한 정보를 수신하여 디스플레이 장치를 통해 출력할 수 있다. 즉, 사용자(예를 들어, 의료진, 환자, 연구원 등)(130)는 대상 환자에 대한 예측 결과에 대한 정보 및/또는 인자에 대한 정보를 기초로, 대상 환자에 대한 의학적 조치 및/또는 임상적 결정을 수행할 수 있다.
저장 시스템(120)은 환자에 대한 해석가능한 예측 결과를 제공하기 위한, 대상 환자와 연관된 의료 이미지 데이터, 추가 의료 데이터 및/또는 기계학습 모델과 연관된 각종 데이터를 저장하고 관리하는 장치 또는 클라우드 시스템이다. 데이터의 효율적인 관리를 위해, 저장 시스템(120)은, 데이터베이스를 이용하여 각종 데이터를 저장하고 관리할 수 있다. 여기서, 각종 데이터는 기계학습 모델과 연관된 임의의 데이터를 포함할 수 있으며, 예를 들어, 목적 데이터의 파일, 목적 데이터의 메타 정보, 어노테이션 작업 결과물인 목적 데이터에 대한 레이블 정보, 어노테이션 작업에 관한 데이터, 기계학습 모델(예: 인공신경망 모델) 등을 포함할 수 있으나, 이에 한정되지 않는다. 도 1에서는 정보 처리 시스템(100)과 저장 시스템(120)이 별도의 시스템으로 도시되어 있으나, 이에 한정되지 않으며, 하나의 시스템으로 통합되어 구성될 수 있다.
본 개시의 일부 실시예들에 따르면, 사용자는 대상 환자의 예후 및/또는 필요 조치에 대한 예측 결과에 대한 정보를 제공받음으로써, 대상 환자에게 필요한 조치를 취할 수 있으며, 대상 환자에 대한 임상적 결정을 하는데 있어서 도움을 받을 수 있다. 또한, 사용자는 예측 결과에 대한 정보를 생성하는 데 영향을 미친 인자들에 대한 정보를 제공받음으로써, 대상 환자에 대한 예측 결과에 대한 예측 이유를 인지할 수 있으며, 그에 따라 대상 환자에게 필요한 조치 및/또는 대상 환자에 대한 임상적 결정을 적절히 조정할 수 있다. 또한, 예측 결과에 대한 정보를 생성하는 데 영향을 미친 인자들에 대한 정보 등은 새로운 의학 연구 자료로서 사용될 수 있다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다. 환자에 대한 해석가능한 예측 결과를 생성하기 위해, 정보 처리 시스템(100)은 도시된 바와 같이, 통신부(210), 모델 학습부(220) 및 모델 추론부(230)를 포함할 수 있다. 도 2에서는 정보 처리 시스템(100)의 각각의 구성요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로, 복수의 구성 요소가 실제 물리적 환경에서 서로 통합되는 형태로 구현될 수 있다. 또한, 도 2에서 정보 처리 시스템(100)은 통신부(210), 모델 학습부(220) 및 모델 추론부(230)로 구성되어 있으나, 이에 한정되지 않으며, 일부 구성이 생략되거나 다른 구성이 추가될 수 있다.
일 실시예에서, 통신부(210)는 대상 환자의 의료 이미지 데이터 및/또는 대상 환자의 추가 의료 데이터를 수신할 수 있다. 예를 들어, 통신부(210)는 의료 영상 촬영 장치 및/또는 사용자 단말로부터 대상 환자의 의료 이미지 데이터 및/또는 대상 환자의 추가 의료 데이터를 수신할 수 있다. 대안적으로 또는 추가적으로, 통신부(210)는 정보 처리 시스템(100)의 내부 및/또는 외부 저장 장치로부터 대상 환자의 의료 이미지 데이터 및/또는 추가 의료 데이터를 수신할 수 있다. 다른 실시예에서, 통신부(210)는 기계학습 예측 모델을 학습하기 위한 학습 데이터를 수신하여, 모델 학습부(220)에 제공할 수 있다. 또 다른 실시예에서, 통신부(210)는 모델 추론부(230)에서 생성한 정보들을 사용자 단말로 전송할 수 있다.
모델 학습부(220)는 기계학습 예측 모델을 생성 및/또는 학습(예를 들어, 업데이트)시킬 수 있다. 여기서, 기계학습 예측 모델은 복수의 예측 모델을 포함하는 모델에 해당할 수 있다. 예를 들어, 기계학습 예측 모델은 제1 서브 예측 모델 및 제2 서브 예측 모델을 포함하는 2-스텝 스태킹 앙상블 모델(2-step stacking ensemble model)에 해당할 수 있다. 다른 예로서, 기계학습 예측 모델은 제1 서브 예측 모델과 제2 서브 예측 모델이 end-to-end로 학습된 모델에 해당할 수 있다. 일 실시예에서, 모델 학습부(220)는 통신부(210)를 통해 수신된 학습 데이터를 이용하여, 기계학습 예측 모델을 학습할 수 있다. 여기서, 학습 데이터는, 학습 대상의 의료 이미지 데이터 및/또는 추가 의료 데이터를 포함할 수 있다. 추가적으로, 학습 데이터는 학습 대상에 대한 예후 및/또는 필요 조치에 대한 정보(예를 들어, 의사의 임상적 결정 등)를 포함할 수 있다. 추가적으로, 학습 데이터는 학습 대상의 의료 이미지 데이터에서 추출되는 하나 이상의 특징(예를 들어, 표현형 특징)에 대한 정보를 포함할 수 있다.
모델 학습부(220)는 상술한 학습 데이터를 이용하여, 참조 환자의 의료 이미지 데이터 및 참조 환자의 추가 의료 데이터를 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 기계학습 예측 모델을 학습시킬 수 있다. 일 실시예에서, 모델 학습부(220)는 학습 대상의 의료 이미지 데이터 및 학습 대상의 의료 이미지 데이터에서 추출되는 하나 이상의 특징에 대한 정보(즉, 정답 레이블)를 이용하여, 제1 서브 예측 모델을 학습시킬 수 있다. 또한, 모델 학습부(220)는 학습 대상의 의료 이미지 데이터에서 추출되는 하나 이상의 특징에 대한 정보, 학습 대상의 추가 의료 데이터 및 학습 대상에 대한 예후 및/또는 필요 조치에 대한 정보(즉, 정답 레이블)를 이용하여, 제2 서브 예측 모델을 학습시킬 수 있다.
이에 따라, 제1 서브 예측 모델은 참조 환자의 의료 이미지 데이터로부터 하나 이상의 참조 특징을 추출하도록 학습되고, 제2 서브 예측 모델은 참조 환자의 추가 의료 데이터와 하나 이상의 참조 특징을 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습될 수 있다. 여기서 참조 특징은, 참조 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 참조 표현형 특징을 포함할 수 있다. 표현형 특징은, 참조 환자의 의료 이미지 내에서 인간이 이해할 수 있는 모든 현상을 포함할 수 있다. 추가적으로, 모델 학습부(220)는 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하는데 있어서, 복수의 참조 인자 각각의 중요도에 대한 참조 정보를 출력하도록 제2 서브 예측 모델을 학습시킬 수 있다. 여기서, 복수의 참조 인자는, 제2 서브 예측 모델로 입력되는 하나 이상의 참조 특징 및/또는 참조 환자의 추가 의료 데이터를 포함할 수 있다. 즉, 모델 학습부(220)는 제2 서브 예측 모델을 해석가능한 예측 모델로 학습시킬 수 있으며, 최종적으로 기계학습 모델을 해석가능한 예측 모델로서 학습시킬 수 있다.
모델 추론부(230)는 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 여기서, 대상 환자에 대한 예측 결과에 대한 정보는 대상 환자의 예후 및/또는 필요 조치에 대한 예측 결과에 대한 정보를 포함할 수 있다. 일 실시예에서, 모델 추론부(230)는 제1 서브 예측 모델을 이용하여 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하고, 제2 서브 예측 모델을 이용하여 하나 이상의 특징 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다.
모델 추론부(230)는 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성할 수 있다. 일 실시예에서, 모델 추론부(230)는 제2 서브 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 생성할 수 있다. 여기서, 복수의 인자는, 대상 환자의 추가 의료 데이터 또는 하나 이상의 특징 중 적어도 하나를 포함할 수 있다.
도 3은 본 개시의 일 실시예에 따른 환자에 대한 해석가능한 예측 결과를 생성하는 방법을 나타내는 흐름도이다. 일 실시예에서, 환자에 대한 해석가능한 예측 결과를 생성하는 방법(300)은 프로세서(예를 들어, 정보 처리 시스템의 적어도 하나의 프로세서 및/또는 사용자 단말의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 환자에 대한 해석가능한 예측 결과를 생성하는 방법(300)은 프로세서가 대상 환자의 의료 이미지 데이터를 수신함으로써 개시될 수 있다(S310). 또한, 프로세서는 대상 환자의 추가 의료 데이터를 수신할 수 있다(S320). 도 3에서는 프로세서가 대상 환자의 의료 이미지 데이터를 추가 의료 데이터에 우선하여 수신하는 것으로 도시하고 있으나, 이에 한정되지 않는다. 예를 들어, 프로세서는 대상 환자의 의료 이미지 데이터와 추가 의료 데이터를 동시에 수신할 수 있다. 다른 예로서, 프로세서는 대상 환자의 추가 의료 데이터를 의료 이미지 데이터에 우선하여 수신할 수 있다.
프로세서는 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다(S330). 예를 들어, 프로세서는 기계학습 예측 모델에 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터를 입력함으로써 출력되는 데이터에 기초하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 여기서, 기계학습 예측 모델은, 제1 서브 예측 모델 및 제2 서브 예측 모델을 포함할 수 있다. 일 실시예에서, 프로세서는 제1 서브 예측 모델을 이용하여 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하고, 제2 서브 예측 모델을 이용하여 하나 이상의 특징 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 예를 들어, 프로세서는 대상 환자의 추가 의료 데이터와 하나 이상의 특징을 연결(concatenate)하여 제2 서브 예측 모델의 입력 데이터를 생성하고, 생성된 입력 데이터를 제2 서브 예측 모델에 입력함으로써, 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 여기서, 하나 이상의 특징은 대상 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징을 포함할 수 있다.
일 실시예에서, 프로세서는 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성할 수 있다. 예를 들어, 프로세서는 제2 서브 예측 모델을 이용하여, 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득할 수 있다. 여기서, 복수의 인자는, 대상 환자의 추가 의료 데이터 또는 하나 이상의 특징 중 적어도 하나를 포함할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 복수의 인자 각각의 중요도에 대한 정보에 기초하여, 복수의 인자 중 적어도 하나를 예측 이유로서 결정할 수 있다. 추가적으로, 프로세서는 대상 환자에 대한 예측 결과에 대한 정보 및/또는 인자에 대한 정보를 사용자 단말에 제공할 수 있다.
도 4는 본 개시의 일 실시예에 따라 기계학습 예측 모델을 이용하여, 환자에 대한 예측 결과에 대한 정보 및 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 예시를 나타내는 도면이다. 일 실시예에서, 프로세서는 대상 환자의 의료 이미지 데이터(420) 및 추가 의료 데이터(430)를 기계학습 예측 모델(410)에 입력함으로써, 대상 환자에 대한 예측 결과에 대한 정보(440)를 생성할 수 있다. 여기서, 기계학습 예측 모델(410)은 참조 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습된 모델에 해당할 수 있다.
프로세서가 단순히 대상 환자에 대한 예측만을 수행하는 데 있어서는 black-box 형태의 모델(즉, 예측 이유나 근거 없이 예측 결과만을 출력하는 모델)만으로 충분할 수 있다. 그러나, 프로세서가 예측에 대한 이유나 근거를 제공하기 위해서는 해석가능한 모델이 필요할 수 있다. 예를 들어, 기존의 일반적인 end-to-end 딥러닝 모델을 활용하여 흉부 이미지(chest image)(예를 들어, 흉부 방사선 이미지 등)를 분석하는 경우, 흉부 이미지로부터 환자에게 기계적 인공호흡(mechanical ventilation)이 필요하다는 예측을 수행할 수 있을지언정, 이러한 예측의 이유나 근거를 추론할 수 없다는 문제가 발생할 수 있다. 즉, 예측의 이유나 근거 없이 딥러닝 모델로부터 출력되는 결과만을 제공받은 사용자(예를 들어, 의료진)는 왜 환자에게 mechanical ventilation이 필요한지 인지할 수 없을 수 있다.
다른 예로서, 예후가 좋지 않음을 나타내는 임상적 근거인 fever, dyspnea 등의 증상이 대상 환자에게 없음에도 불구하고, 대상 환자의 의료 이미지 데이터에 의해 대상 환자의 예후가 좋지 않다는 예측 결과가 생성될 수 있다. 이 경우, 대상 환자에 대한 임상적 결정을 하는데 있어서, 의료진이 기존 의학 지식 기반의 근거 없이 오직 예측 결과를 신뢰하기에는 어려움이 있을 수 있다. 특히, 다른 대상 환자가 fever, dyspnea 등의 증상이 있음에도 불구하고, 예후가 좋은 것으로 예측된 경우, 의료진이 제한된 자원을 어떤 환자에게 먼저 제공할지 결정하는데 있어서 혼란을 초래할 수 있다는 문제가 발생할 수 있다.
상술한 문제점을 해결하기 위해, 프로세서는 대상 환자의 의료 이미지 데이터(420) 및 추가 의료 데이터(430)를 기계학습 예측 모델(410)에 입력함으로써, 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보(450)(예를 들어, 예측 결과에 대한 정보를 생성하는데 기반이 되는 인자에 대한 정보, 예측 결과에 대한 정보를 생성하는데 의학적 관련성이 있는 인자에 대한 정보 등)를 생성할 수 있다. 이 경우, 기계학습 예측 모델(410)은 참조 예측 결과에 대한 정보를 생성하는데 영향을 미친 참조 인자에 대한 참조 정보를 생성하도록 학습된 모델에 해당할 수 있다. 따라서, 프로세서는 해석가능한 기계학습 예측 모델(410)을 이용함으로써, 대상 환자에 대한 예측 결과에 대한 정보 및/또는 인자에 대한 정보를 생성하고, 사용자에게 제공할 수 있다.
도 5는 본 개시의 일 실시예에 따라 제1 서브 예측 모델 및 제2 서브 예측 모델을 이용하여, 환자에 대한 예측 결과에 대한 정보 및 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 예시를 나타내는 도면이다. 의료 이미지 데이터는 복잡한 데이터에 해당하므로, black-box 형태의 모델인 딥러닝 모델에 적합하고, 해석가능한 모델에는 적용하기 어려울 수 있다. 따라서, 프로세서가 의료 이미지 데이터를 이용하여 환자에 대한 예측을 수행하는 경우, 예측에 대한 이유를 제공하기 어려울 수 있다. 이러한 문제점을 해결하기 위해, 프로세서는 의료 이미지 데이터(420)로부터 하나 이상의 특징을 추출하는 제1 서브 예측 모델(510)과 하나 이상의 특징을 기초로 환자에 대한 예측 결과를 생성하는 해석가능한 제2 서브 예측 모델(520)을 포함하는 해석가능한 기계학습 예측 모델을 사용할 수 있다. 즉, 프로세서는 의료 이미지 데이터(420)로부터 우선 해석가능한 특징들을 추출하고, 추출된 특징들을 이용하여 환자에 대한 예측을 수행할 수 있다. 여기서, 의료 이미지 데이터(420)로부터 추출되는 하나 이상의 특징은, 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징을 포함할 수 있다. 본 개시에서, 표현형 특징은, 의료 이미지 내에서 인간이 이해할 수 있는 모든 현상을 포함할 수 있다. 예를 들어, 폐 이미지의 경우, 표현형 특징은 결절, 강화, 기흉, 흉막삼출, 심장비대, 섬유증, 종격동 확장 등 폐에서 나타날 수 있으며 인간이 해당 부위에 대하여 이해할 수 있는 모든 특징점을 포함할 수 있다. 다른 예로서, 갑상선의 초음파 이미지의 경우, 낭성 변화, 미세석회화, 주변부 혈류증가, 코에코성, 지방문의 소실 등이 표현형 특징으로서 추출될 수 있다.
여기서, 기계학습 예측 모델에 포함된 제1 서브 예측 모델(510)은, 복잡한 의료 이미지 데이터(420)로부터 해석가능한 특징(예를 들어, 표현형 특징)들을 추출하는 딥러닝 모델(예를 들어, interpretable phenotype extractor)에 해당할 수 있다. 또한, 기계학습 예측 모델에 포함된 제2 서브 예측 모델(520)은 제1 서브 예측 모델(510)에 의해 추출된 해석가능한 특징을 기초로 환자의 예후 및/또는 필요 조치를 예측하는 해석가능한 모델(예를 들어, Prognosis prediction model)에 해당할 수 있다. 기계학습 예측 모델은 제1 서브 예측 모델(510) 및 제2 서브 예측 모델(520)을 포함하므로, 최종적으로 해석가능한 예측 모델에 해당할 수 있다.
일 실시예에서, 프로세서는 제1 서브 예측 모델(510)을 이용하여, 대상 환자의 의료 이미지 데이터(420)로부터 하나 이상의 특징을 추출할 수 있다. 그리고 나서, 프로세서는 제2 서브 예측 모델(520)을 이용하여, 하나 이상의 특징 및 대상 환자의 추가 의료 데이터(430)를 기초로, 대상 환자에 대한 예측 결과에 대한 정보(440)를 생성할 수 있다. 예를 들어, 프로세서는 하나 이상의 특징과 대상 환자의 추가 의료 데이터(430)를 연결함으로써 제2 서브 예측 모델(520)의 입력 데이터를 생성하고, 생성된 입력 데이터를 제2 서브 예측 모델에 입력함으로써 대상 환자에 대한 예측 결과에 대한 정보(440)를 생성할 수 있다. 여기서, 제1 서브 예측 모델(510)은 참조 환자의 의료 이미지 데이터로부터 하나 이상의 참조 특징을 추출하도록 학습되고, 제2 서브 예측 모델(520)은 하나 이상의 참조 특징 및 참조 환자의 추가 의료 데이터를 기초로 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습될 수 있다.
프로세서는 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보(440)를 생성하는데 영향을 미친 인자에 대한 정보(450)(예를 들어, 인자 각각의 중요도, 중요도 순위 등)를 생성할 수 있다. 일 실시예에서, 프로세서는 제2 서브 예측 모델(520)을 이용하여, 하나 이상의 특징 및 대상 환자의 추가 의료 데이터(430)를 기초로, 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보(450)를 생성할 수 있다. 예를 들어, 프로세서는 제2 서브 예측 모델(520)을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보(440)를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득할 수 있다. 여기서, 복수의 인자는 대상 환자의 추가 의료 데이터(430) 및/또는 하나 이상의 특징을 포함할 수 있다. 이 경우, 제2 서브 예측 모델(520)은 대상 환자에 대한 예측을 수행하는데 있어서(즉, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서), 복수의 인자 각각이 미친 영향의 정도를 나타내는 수치를 복수의 인자 각각의 중요도로서 산출하도록 학습된 모델에 해당할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 복수의 인자 각각의 중요도에 대한 정보에 기초하여, 복수의 인자 중 적어도 하나를 예측 이유로서 결정할 수 있다.
예를 들어, 프로세서가 기계학습 예측 모델을 이용하여, 대상 환자에게 mechanical ventilation이 필요하다는 예측 결과에 대한 정보를 생성하는데 있어서, 대상 환자의 의료 이미지 데이터로부터 추출된 표현형 특징인 consolidation이라는 인자의 수치가 큰 영향을 미칠 수 있다. 이 경우, 프로세서는 대상 환자의 consolidation 증상을 mechanical ventilation에 대한 예측의 이유나 근거로서 결정할 수 있다. 프로세서는 이렇게 결정된 예측 이유를 사용자 단말에 제공함으로써, 대상 환자의 consolidation 증상으로 인해 대상 환자에게 mechanical ventilation가 필요함을 사용자(예를 들어, 의료진)가 인지할 수 있도록 할 수 있다.
도시된 바와 같이, 제1 서브 예측 모델(510)의 최종 출력 데이터들은 제2 서브 예측 모델(520)의 입력 데이터로 사용될 수 있다. 추가적으로 또는 대안적으로, 제1 서브 예측 모델(510)의 최종 출력 레이어(layer) 이전의 Hidden layer에서 출력되는 피쳐들(features)이 제2 서브 예측 모델(520)의 입력 데이터로서 사용될 수 있다. 여기서, Hidden layer에서 출력되는 피쳐들은 Convolutional layer로부터 추출되는 2차원 이상의 데이터 및/또는 Fully connected layer 등의 레이어에서 추출되는 데이터(예를 들어, value)를 포함할 수 있다. 또한, 도 5에서는 추가 의료 데이터(430)가 제2 서브 예측 모델(520)로 입력되고 있으나, 이에 한정되지 않는다. 예를 들어, 추가 의료 데이터(430)는 제1 서브 예측 모델(510)에 포함된 레이어 중 적어도 하나에 입력될 수 있다.
도 5는 제1 서브 예측 모델(510)과 제2 서브 예측 모델(520)을 포함하는 예측 모델의 일례를 도시하고 있으나, 이에 한정되지 않는다. 예를 들어, 기계학습 예측 모델은 2-스텝 스태킹 앙상블 모델에 해당할 수 있다. 다른 예로서, 기계학습 예측 모델은 딥러닝 프레임워크(예를 들어, Tensorflow, PyTorch 등)를 활용하여, 제1 서브 예측 모델과 제2 서브 예측 모델을 end-to-end로 학습한 모델에 해당할 수 있다.
도 6은 본 개시의 일 실시예에 따라 Convolutional Neural Network(CNN) 기반의 제1 서브 예측 모델을 이용하여 의료 이미지 데이터로부터 하나 이상의 특징을 추출하는 예시를 나타내는 도면이다. 프로세서는 제1 서브 예측 모델을 이용하여 의료 이미지 데이터로부터 하나 이상의 특징을 추출할 수 있다. 의료 이미지 데이터로부터 추출되는 하나 이상의 특징은, 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징(interpretable phenotype)을 포함할 수 있다. 여기서, 표현형 특징은 환자를 진단함에 있어서 의료 이미지 데이터에서 해석될 수 있는 정보를 포함할 수 있다. 예를 들어, 표현형 특징은 기흉(pneumothorax), 종격동 확장(mediastinal widening), 기복증(pneumoperitoneum), 결절/덩어리(nodule/mass), 강화(consolidation), 흉막 삼출(pleural effusion), 선형 무기폐(linear atelectasis), 섬유증(fibrosis), 석회 침착(calcification), 심장비대(cardiomegaly), 결핵(tuberculosis) 등의 이상(abnormality) 발현에 대한 정보를 포함할 수 있으나, 이에 한정되지 않는다. 다른 예로서, 표현형 특징은, 의학적인 이상뿐만 아니라, 폐의 모양, 크기, 위치 등 해석가능한 형태의 정보를 포함할 수 있다.
일 실시예에서, 프로세서는 CNN 기반의 제1 서브 예측 모델(예를 들어, CNN based interpretable phenotype extractor)를 이용하여 의료 이미지 데이터로부터 하나 이상의 특징을 추출할 수 있다. 여기서, 제1 서브 예측 모델의 기반이 되는 CNN 알고리즘은 이미지뿐만 아니라 3차원 이상의 데이터와 같은 다차원의 복잡한 데이터를 처리할 수 있다. 도시된 바와 같이, CNN 알고리즘은 Convolution 및 Pooling 등을 통해, 데이터의 수를 늘리는 동시에 다차원의 데이터의 크기를 줄여, 최종적으로 1차원의 Fully connected layer로서 데이터를 벡터화하여 처리할 수 있다. 이러한 CNN 알고리즘은 feature selection을 수행하는 하나의 도구로 활용될 수 있으며, 이미지에서 사람이 파악할 수 있는 개인의 민감 정보를 감추는 도구로도 활용될 수 있다.
CNN 알고리즘은 다양한 구조로 변형될 수 있으며, 목적에 맞는 데이터와 정답(Label)으로 학습되면, 이미지(예를 들어, 의료 이미지 데이터)의 특정 패턴(예를 들어, 표현형 특징)을 찾는 방식으로 가중치(weight)가 수정될 수 있다. 여기서, 정답은 의료 이미지 데이터로부터 해석가능한 하나 이상의 특징을 포함할 수 있다. 예를 들어, 제1 서브 예측 모델은 학습 의료 이미지 데이터와 학습 의료 이미지 데이터에서의 다양한 표현형 특징에 대한 정보(즉, 정답 레이블, 어노테이션 정보)에 기초하여, 각 표현형 특징에 대한 수치 값을 예측하도록 학습될 수 있다.
도시된 바와 같이, 프로세서는 대상 환자의 의료 이미지 데이터(예를 들어, 흉부 이미지)(610)를 CNN 기반의 제1 서브 예측 모델에 입력함으로써, 출력되는 데이터를 기초로 하나 이상의 표현형 특징(예를 들어, Nodule, Calcification, Pneumothorax, Cardiomegaly 등에 대한 정보, 데이터, 수치 등)을 추출할 수 있다. 도 5에서는, 대상 환자의 흉부 이미지 중 X-ray 데이터가 제1 서브 예측 모델에 입력되는 것으로 도시되어 있으나, 이에 한정되지 않는다. 예를 들어, MRI, CT 등의 상이한 유형의 의료 이미지 데이터가 입력될 수 있다.
또한, 제1 서브 예측 모델은 도 5에 도시된 CNN의 구조에 한정되지 않으며, CNN을 기반으로 한 모든 형태의 구조에 해당할 수 있다. 예를 들어, Input layer와 Output layer를 포함한 CNN의 구조는 모든 사이즈의 EfficientNet, Xception, VGG, ResNet, Inception, MobileNet, DenseNet, NASNet 등을 포함할 수 있다.
도 7은 본 개시의 일 실시예에 따라 제2 서브 예측 모델을 이용하여 환자에 대한 예측 결과에 대한 정보를 생성하는 예시를 나타내는 도면이다. 프로세서는 제2 서브 예측 모델을 이용하여, 대상 환자의 추가 의료 데이터와 의료 이미지 데이터로부터 추출된 하나 이상의 특징을 기초로 대상 환자에 대한 예측 결과에 대한 정보를 생성할 수 있다. 일 실시예에서, 프로세서는 의료 이미지 데이터로부터 추출된 해석가능한 표현형 특징과 대상 환자의 추가 의료 데이터를 기반으로 대상 환자의 예후 및/또는 필요 조치를 예측할 수 있다. 예를 들어, 프로세서는 제2 서브 예측 모델을 이용하여, 대상 환자의 흉부 이미지(예를 들어, 흉부 방사선 이미지)로부터 추출된 표현형 특징 및 대상 환자의 추가 의료 데이터를 기초로 mechanical ventilation 필요 여부에 대한 예측 결과에 대한 정보를 생성할 수 있다.
이를 위해, 제2 서브 예측 모델은 환자의 예후 및/또는 필요 조치를 예측하도록 학습될 수 있다. 제2 서브 예측 모델의 학습 데이터는 학습 대상의 의료 이미지 데이터로부터 추출된 표현형 특징 및 학습 대상의 추가 의료 데이터를 포함할 수 있다. 또한, 제2 서브 예측 모델의 학습 데이터는 학습 대상의 예후 및/또는 필요 조치에 대한 정보를 정답 레이블로서 포함할 수 있다. 여기서, 학습 대상의 예후에 대한 정보는, 학습 대상의 사망, 중환자실 입원(ICU admission), 질병의 재발, 암의 전이, 심장 마비(cardiac arrest) 등의 새로운 사건(event)의 발생 등에 대한 정보 및/또는 특정 기준 시점(예를 들어, 학습 데이터 촬영 시점 및/또는 학습 데이터 획득 시점 등)으로부터 사건이 발생한 시점에 대한 정보를 포함할 수 있다.
도시된 바와 같이, 프로세서는 대상 환자의 흉부 이미지로부터 추출된 표현형 특징('DLAD-10 output')(710)과 대상 환자의 추가 의료 데이터('Clinical finding')(720)을 random forest instance 기반의 제2 서브 예측 모델(730)에 입력함으로써, 대상 환자의 예후 및/또는 필요 조치에 대한 예측 결과에 대한 정보('Prognosis & Intervention prediction')(740)를 생성할 수 있다. 예를 들어, 대상 환자의 흉부 이미지로부터 추출된 표현형 특징(710)은 Calcification, Atelectasis, Fibrosis, Pneumothorax, cardiomegaly, Nodule, Pleural effusion, Pneumoperitoneum, Mediastinal Widening, Consolidation 등에 대한 정보를 포함할 수 있다. 또한, 추가 의료 데이터('Clinical finding')(720)는 대상 환자의 임상 데이터(예를 들어, Fever, Sputum, Age, Sex, Dyspnea, hypertension, diabetes, cancer 등 또는 기저질환) 및/또는 랩 데이터(예를 들어, Neutrophil, Lymphocyte, Platelet, CRP, LDH, D-dimer, SPO2, Ct:E, RdRP 등)을 포함할 수 있다.
여기서, 대상 환자의 예후에 대한 예측 결과에 대한 정보는, 대상 환자의 사망, 생존, 중환자실 입원, 질병의 재발, 암의 전이, 심장 마비 등의 새로운 사건의 발생 여부 예측, 발생 가능성, 사건이 발생할 것으로 예측되는 시점 등에 대한 정보를 포함할 수 있다. 예를 들어, 대상 환자의 예후에 대한 예측 결과에 대한 정보는 사건을 예측하는 분류(classification) 결과에 대한 정보를 포함할 수 있다. 추가적으로 또는 대안적으로, 대상 환자의 예후에 대한 예측 결과에 대한 정보는 특정 사건과 발생 시점을 예측하는 censored problem에 대한 결과를 포함할 수 있다. 또한, 대상 환자의 필요 조치에 대한 예측 결과는 oxygen supplementation, mechanical ventilation, Extracorporeal Membrane Oxygenation(ECMO), 약, 수술 등과 같은 의료 행위(또는 자원)의 필요 여부를 포함할 수 있다.
도 7에서는 제2 서브 예측 모델의 예로서, random forest instance 기반의 모델을 도시하고 있으나, 이에 한정되지 않는다. 예를 들어, 이항 분류 문제(binary classification problem)의 경우, 제2 서브 예측 모델의 Back-bone model은 Interpretable Deep neural network(iDNN), Random Forest, SVM, Boost, Bagging, Lasso, Ridge, ElasticNet 등의 예측 모델에 해당할 수 있으나, 이에 한정되지 않는다. 다른 예로서, Censored data로서 생존 예측(survival prediction)의 경우, 제2 서브 예측 모델은, Random Forest Survival Regression Classification(RFSRC), C-index 혹은 Coxph를 family로 하는 회귀(regression)(예를 들어, cox proportional hazard model, Lasso, Ridge, ElasticNet 등) 모델, XGBoost for Survival Analysis(XGBSE) 등의 생존(survival) 예측 모델에 해당할 수 있다.
도 8은 본 개시의 일 실시예에 따라 환자에 대한 예측을 수행하는 경우의 예측 성능을 나타내는 표이다. 도 8에 도시된 표(810)는, oxygen(O2) supplementation, mechanical ventilation, Extracorporeal Membrane Oxygenation(ECMO), ICU admission, Mortality, All events 등의 사건 유형(Event Type) 각각에 대한 예측을 수행하는데 있어서, 추가 의료 데이터만을 이용하여 예측을 수행한 경우('Clinical findings'), 의료 이미지 데이터만을 이용하여 예측을 수행한 경우('DLAD-10 output') 및 의료 이미지 데이터와 추가 의료 데이터를 모두 이용하여 예측을 수행한 경우('Combined') 각각의 Area under the ROC curve의 값을 나타낼 수 있다. 여기서, 의료 이미지 데이터만을 이용하여 예측을 수행한 경우는, 의료 이미지 데이터로부터 추출된 10 가지 표현형 특징(예를 들어, Calcification, Atelectasis, Fibrosis, Pneumothorax, cardiomegaly, Nodule, Pleural effusion, Pneumoperitoneum, Mediastinal Widening, Consolidation)을 이용하여 예측을 수행한 경우에 해당할 수 있다. 도시된 바와 같이, 의료 이미지 데이터와 추가 의료 데이터를 모두 이용하여 예측을 수행한 경우('Combined')가, 의료 이미지 데이터 또는 추가 의료 데이터 만을 이용하여 예측을 수행하는 경우('Clinical findings', 'DLAD-10 output')보다 성능이 개선될 수 있다.
도 9는 본 개시의 일 실시예에 따라, 대상 환자에 대한 예측에 있어서, 복수의 인자가 미치는 영향을 나타내는 표이다. 일 실시예에서, 프로세서는 기계학습 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보(예를 들어, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 관련된 인자에 대한 정보)를 생성할 수 있다. 예를 들어, 프로세서는 제2 서브 예측 모델을 이용하여, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득할 수 있다. 추가적으로, 프로세서는 복수의 인자 각각의 중요도에 대한 정보에 기초하여, 복수의 인자 중 적어도 하나를 예측 이유로서 결정할 수 있다. 여기서, 복수의 인자는, 대상 환자의 추가 의료 데이터 및/또는 하나 이상의 특징을 포함할 수 있다.
도시된 표(910)는, 대상 환자의 예후 및/또는 필요 조치('O2supply(O2 supplementation)', 'Mechanical ventilation', 'ECMO', 'ICU admission', 'Mortality', 'All') 각각에 대한 예측을 수행하는데 있어서, 복수의 인자('Dyspnea', 'Age', 'Fever', 'Consolidation', 'Pneumothorax') 각각이 미치는 영향을 수치 값으로 나타낼 수 있다. 예를 들어, 수치 값이 양수인 경우, 해당 인자의 값이 높을수록 해당 조치가 필요함을 나타낼 수 있다. 즉, 양의 수치 값이 높을수록 해당 예측 결과에 대한 정보를 생성하는데 해당 인자가 미친 영향이 큰 것(즉, 중요도가 높은 것)을 나타낼 수 있다. 다른 예로서, 수치 값이 음수인 경우, 해당 인자의 값이 높을수록 해당 조치가 필요하지 않음을 나타낼 수 있다.
표(910)에서 도시하는 바와 같이, 기존에 알려진 의학 지식과 마찬가지로, 'Dyspnea', 'Age', 'Fever'의 인자는 환자의 예후 및/또는 필요 조치 중 일부(예를 들어, 'O2 supply')에 대한 예측에 있어서 중요한 영향을 미칠 수 있다. 표(910)의 복수의 인자 중 'Consolidation', 'Pneumothorax'는 대상 환자의 흉부 이미지에서 추출된 해석가능한 표현형 특징에 해당할 수 있다. 기존의 딥러닝 모델만을 이용하여 흉부 이미지의 각 픽셀에 대한 절대값으로 대상 환자에 대한 예측을 수행하는 경우, 사용자는 대상 환자에게 O2 supplementation가 필요하다는 정보를 제공받을 수 있을지언정, Consolidation, Pneumothorax와 같은 표현형 특징에 대한 정보 및 대상 환자에게 왜 O2 supplementation가 필요한지에 대한 정보를 제공받을 수 없다. 즉, 사용자(예를 들어, 의료진)는 흉부 이미지의 어떤 부분이 대상 환자의 예후 및/또는 필요 조치에 대한 예측 결과에 영향을 미쳤는지를 인지할 수 없으며, 흉부 이미지로부터 추출되는 표현형 특징에 대한 정보를 활용할 수 없다.
반면, 본 개시의 일부 실시예들에 따르면, 프로세서는 대상 환자의 의료 이미지 데이터로부터 의료진이 이해가능한 표현형 특징을 추출하여 제공할 수 있으며, 대상 환자에 대한 예측에 영향을 미친 표현형 특징을 제공할 수 있다. 예를 들어, 프로세서는 대상 환자가 폐에 consolidation이 존재하여 대상 환자의 예후가 좋지 않으며, O2 supplementation이 필요하다는 정보를 사용자에게 제공할 수 있다. 사용자(예를 들어, 의료진 등)는 이렇게 제공받은 정보를 기초로 consolidation은 폐렴에서 흔히 나타나고, 염증 물질 증가에 의한 reduced gas exchange surface로 인해 O2 supplementation이 필요하다는 임상적 결정을 수행할 수 있다.
일 실시예에 따르면, 기계학습 예측모델에 의해, 제1 환자에 대해서는 임상적 증상 없으나 예후가 좋지 않다고 예측되고, 제2 환자에 대해서는 임상적 증상이 있으나 예후가 좋다고 예측된 경우, 사용자는 이러한 예측 결과가 대상 환자의 의료 이미지 데이터로부터 추출된 Consolidation에 의한 것임을 알 수 있으며, 예측 결과를 신뢰할 수 있다. 따라서, 사용자는 제1 환자와 제2 환자 중 임상적 증상이 없더라도 예후가 좋지 않다고 예측된 제1 환자에게 제한된 자원을 사용하도록 결정할 수 있다.
본 개시의 일부 실시예들에 따라 제공받은 정보들에 기초하여, 사용자는 임상적으로 중요한 인자(예를 들어, 표현형 특징 등)가 무엇인지를 인지할 수 있으며, 환자의 치료 방침을 결정하는데 도움을 받을 수 있다. 또한, 제공받은 정보에 기초하여, 사용자는 새로운 가설(예를 들어, 의학적 연구 가설 등) 또는 치료 방침을 고려할 수 있다. 예를 들어, fibrosis가 있는 환자에서 ECMO 사용이 중요한 것으로 예측되는 경우, 추후 fibrosis가 있는 환자에게 ECMO을 일찍 제공함으로써 해당 환자의 예후가 빠르게 좋아질 수 있도록 조치할 수 있다. 다른 예로서, fibrosis가 있는 환자에서 ECMO 사용이 중요한 것으로 예측되고 ECMO의 개수에 제한이 있는 경우, fibrosis 증상이 있는 환자의 수에 따라 미리 ECMO를 준비함으로써, 사용자로 하여금 자원 관리를 효율적으로 수행하도록 할 수 있다. 또 다른 예로서, fibrosis가 있는 환자에서 ECMO 사용의 인자라고 인지되는 것은 왜 Fibrosis가 있는 환자들에게 ECMO가 필요하고 유효한지에 대한 새로운 연구를 시작하는데 중요한 역할로서 제공될 수 있다.
도 10은 본 개시의 일 실시예에 따른 인공신경망 모델을 나타내는 예시도이다. 인공신경망 모델(1000)은, 기계학습 모델의 일 예로서, 기계학습(Machine Learning) 기술과 인지과학에서, 생물학적 신경망의 구조에 기초하여 구현된 통계학적 학습 알고리즘 또는 그 알고리즘을 실행하는 구조이다.
일 실시예에 따르면, 인공신경망 모델(1000)은, 생물학적 신경망에서와 같이 시냅스의 결합으로 네트워크를 형성한 인공 뉴런인 노드(Node)들이 시냅스의 가중치를 반복적으로 조정하여, 특정 입력에 대응한 올바른 출력과 추론된 출력 사이의 오차가 감소되도록 학습함으로써, 문제 해결 능력을 가지는 기계학습 모델을 나타낼 수 있다. 예를 들어, 인공신경망 모델(1000)은 기계학습, 딥러닝 등의 인공지능 학습법에 사용되는 임의의 확률 모델, 뉴럴 네트워크 모델 등을 포함할 수 있다.
일 실시예에 따르면, 인공신경망 모델(1000)은 입력되는 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로 대상 환자의 예후 또는 필요 조치 중 적어도 하나에 대한 예측을 수행하도록(예를 들어, 예측 결과에 대한 정보를 생성하도록) 구성된 인공신경망 모델을 포함할 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)은 입력되는 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하도록 구성된 인공신경망 모델을 포함할 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)은 입력되는 하나 이상의 특징 및 대상 환자의 추가 의료 데이터를 기초로 대상 환자의 예후 또는 필요 조치 중 적어도 하나에 대한 예측을 수행하도록 구성된 인공신경망 모델을 포함할 수 있다.
인공신경망 모델(1000)은 다층의 노드들과 이들 사이의 연결로 구성된 다층 퍼셉트론(MLP: multilayer perceptron)으로 구현된다. 본 실시예에 따른 인공신경망 모델(1000)은 MLP를 포함하는 다양한 인공신경망 모델 구조들 중의 하나를 이용하여 구현될 수 있다. 도 10에 도시된 바와 같이, 인공신경망 모델(1000)은, 외부로부터 입력 신호 또는 데이터(1010)를 수신하는 입력층(1020), 입력 데이터에 대응한 출력 신호 또는 데이터(1050)를 출력하는 출력층(1040), 입력층(1020)과 출력층(1040) 사이에 위치하며 입력층(1020)으로부터 신호를 받아 특성을 추출하여 출력층(1040)으로 전달하는 n개(여기서, n은 양의 정수)의 은닉층(1030_1 내지 1030_n)으로 구성된다. 여기서, 출력층(1040)은 은닉층(1030_1 내지 1030_n)으로부터 신호를 받아 외부로 출력한다.
인공신경망 모델(1000)의 학습 방법에는, 교사 신호(정답)의 입력에 의해서 문제의 해결에 최적화되도록 학습하는 지도 학습(Supervised Learning) 방법과, 교사 신호를 필요로 하지 않는 비지도 학습(Unsupervised Learning) 방법이 있다. 일 실시예에서, 정보 처리 시스템은 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 인공신경망 모델(1000)을 지도 학습 및/또는 비지도 학습시킬 수 있다. 예를 들어, 정보 처리 시스템은 참조 환자의 의료 이미지 데이터 및 추가 의료 데이터를 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 인공신경망 모델(1000)을 지도 학습할 수 있다.
다른 실시예에서, 정보 처리 시스템은 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하도록 인공신경망 모델(1000)을 지도 학습 및/또는 비지도 학습시킬 수 있다. 예를 들어, 정보 처리 시스템은 참조 환자의 참조 의료 이미지 데이터로부터 하나 이상의 참조 특징(예를 들어, 표현형 특징)을 추출하도록 인공신경망 모델(1000)을 지도 학습할 수 있다. 또 다른 실시예에서, 정보 처리 시스템은 대상 환자의 의료 이미지 데이터로부터 추출된 하나 이상의 특징 및 추가 의료 데이터를 기초로 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 인공신경망 모델(1000)을 지도 학습 및/또는 비지도 학습시킬 수 있다. 예를 들어, 정보 처리 시스템은 참조 환자의 의료 이미지 데이터로부터 추출된 참조 특징 및 참조 환자의 추가 의료 데이터를 기초로, 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 인공신경망 모델(1000)을 지도 학습할 수 있다.
이렇게 학습된 인공신경망 모델(1000)은 정보 처리 시스템의 메모리(미도시)에 저장될 수 있으며, 통신 모듈 및/또는 메모리로부터 수신된 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터에 대한 입력에 응답하여, 대상 환자에 대한 예측을 수행함으로써, 대상 환자에 대한 예측 결과를 생성할 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)은 대상 환자의 의료 이미지 데이터에 대한 입력에 응답하여, 하나 이상의 특징을 추출할 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)은 대상 환자의 의료 이미지 데이터로부터 추출된 하나 이상의 특징 및 대상 환자의 추가 의료 데이터에 대한 입력에 응답하여, 대상 환자에 대한 예측을 수행함으로써, 대상 환자에 대한 예측 결과를 생성할 수 있다.
일 실시예에 따르면, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 인공신경망 모델의 입력변수는, 대상 환자의 의료 이미지 데이터 및/또는 추가 의료 데이터일 수 있다. 예를 들어, 인공신경망 모델(1000)의 입력층(1020)에 입력되는 입력변수는, 대상 환자의 의료 이미지 데이터를 하나의 벡터 데이터 요소로 구성한 이미지 벡터(1010) 및/또는 대상 환자의 추가 의료 데이터를 하나의 벡터 데이터 요소로 구성한 벡터(1010)가 될 수 있다. 이러한 입력에 응답하여, 인공신경망 모델(1000)의 출력층(1040)에서 출력되는 출력 변수는 대상 환자에 대한 예측 결과에 대한 정보를 나타내거나 특징화하는 벡터(1050)가 될 수 있다. 즉, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보를 나타내거나 특징화하는 벡터를 출력하도록 구성될 수 있다. 본 개시에 있어서, 인공신경망 모델(1000)의 출력변수는, 이상에서 설명된 유형에 한정되지 않으며, 대상 환자에 대한 예측 결과에 대한 정보를 나타내는 임의의 정보/데이터를 포함할 수 있다. 이에 더하여, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보 등의 신뢰도 및/또는 정확도를 나타내는 벡터를 출력하도록 구성될 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 나타내는 벡터를 출력하도록 구성될 수 있다.
다른 실시예에서, 의료 이미지 데이터로부터 하나 이상의 특징을 추출하는 기계학습 모델, 즉, 인공신경망 모델(1000)의 입력 변수는, 대상 환자의 의료 이미지 데이터일 수 있다. 예를 들어, 인공신경망 모델(1000)의 입력층(1020)에 입력되는 입력변수는, 대상 환자의 의료 이미지 데이터를 하나의 벡터 데이터 요소로 구성한, 이미지 벡터(1010)가 될 수 있다. 대상 환자의 의료 이미지 데이터에 대한 입력에 응답하여, 인공신경망 모델(1000)의 출력층(1040)에서 출력되는 출력 변수는 하나 이상의 특징(예를 들어, 표현형 특징)을 나타내거나 특징화하는 벡터(1050)가 될 수 있다. 본 개시에 있어서, 인공신경망 모델(1000)의 출력변수는, 이상에서 설명된 유형에 한정되지 않으며, 하나 이상의 특징을 나타내는 임의의 정보/데이터를 포함할 수 있다.
또 다른 실시예에 따르면, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 인공신경망 모델의 입력변수는, 대상 환자의 의료 이미지 데이터로부터 추출된 하나 이상의 특징 및/또는 대상 환자의 추가 의료 데이터일 수 있다. 예를 들어, 인공신경망 모델(1000)의 입력층(1020)에 입력되는 입력변수는, 하나 이상의 특징 및/또는 대상 환자의 추가 의료 데이터를 하나의 벡터 데이터 요소로 구성한 벡터(1010)가 될 수 있다. 이러한 입력에 응답하여, 인공신경망 모델(1000)의 출력층(1040)에서 출력되는 출력 변수는 대상 환자에 대한 예측 결과에 대한 정보를 나타내거나 특징화하는 벡터(1050)가 될 수 있다. 즉, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보를 나타내거나 특징화하는 벡터를 출력하도록 구성될 수 있다. 본 개시에 있어서, 인공신경망 모델(1000)의 출력변수는, 이상에서 설명된 유형에 한정되지 않으며, 대상 환자에 대한 예측 결과에 대한 정보를 나타내는 임의의 정보/데이터를 포함할 수 있다. 이에 더하여, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보 등의 신뢰도 및/또는 정확도를 나타내는 벡터를 출력하도록 구성될 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(1000)의 출력층(1040)은 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 나타내는 벡터를 출력하도록 구성될 수 있다.
이와 같이, 인공신경망 모델(1000)의 입력층(1020)과 출력층(1040)에 복수의 입력변수와 대응되는 복수의 출력변수가 각각 매칭되고, 입력층(1020), 은닉층(1030_1 내지 1030_n) 및 출력층(1040)에 포함된 노드들 사이의 시냅스 값이 조정됨으로써, 특정 입력에 대응한 올바른 출력이 추출될 수 있도록 학습될 수 있다. 이러한 학습 과정을 통해, 인공신경망 모델(1000)의 입력변수에 숨겨져 있는 특성을 파악할 수 있고, 입력변수에 기초하여 계산된 출력변수와 목표 출력 간의 오차가 줄어들도록 인공신경망 모델(1000)의 노드들 사이의 시냅스 값(또는 가중치)을 조정할 수 있다. 이렇게 학습된 인공신경망 모델(1000)은 대상 환자의 의료 이미지 데이터 및 추가 의료 데이터의 입력에 응답하여, 대상 환자에 대한 예측 결과에 대한 정보를 출력할 수 있다. 추가적으로 또는 대안적으로, 이렇게 학습된 인공신경망 모델(1000)은 대상 환자의 의료 이미지 데이터의 입력에 응답하여, 하나 이상의 특징을 출력할 수 있다. 추가적으로 또는 대안적으로, 이렇게 학습된 인공신경망 모델(1000)은 대상 환자의 의료 이미지 데이터로부터 추출된 하나 이상의 특징 및 대상 환자의 추가 의료 데이터의 입력에 응답하여, 대상 환자에 대한 예측 결과에 대한 정보를 출력할 수 있다.
도 11은 본 개시의 일 실시예에 따른 환자에 대한 해석가능한 예측 결과를 생성하는 예시적인 컴퓨팅 장치(예를 들어, 정보 처리 시스템) 구성도이다. 도시된 바와 같이, 컴퓨팅 장치(1100)는 하나 이상의 프로세서(1110), 버스(1130), 통신 인터페이스(1140), 프로세서(1110)에 의해 수행되는 컴퓨터 프로그램(1160)을 로드(load)하는 메모리(1120) 및 컴퓨터 프로그램(1160)을 저장하는 저장 모듈(1150)을 포함할 수 있다. 다만, 도 11에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 11에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(1110)는 컴퓨팅 장치(1100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1110)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1100)는 하나 이상의 프로세서를 구비할 수 있다.
메모리(1120)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(1120)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위하여 저장 모듈(1150)로부터 하나 이상의 컴퓨터 프로그램(1160)을 로드할 수 있다. 메모리(1120)는 RAM과 같은 휘발성 메모리로 구현될 수 있으나, 본 개시의 기술적 범위는 이에 한정되지 아니한다.
버스(1130)는 컴퓨팅 장치(1100)의 구성 요소 간 통신 기능을 제공할 수 있다. 버스(1130)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(1140)는 컴퓨팅 장치(1100)의 유무선 인터넷 통신을 지원할 수 있다. 또한, 통신 인터페이스(1140)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1140)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.
저장 모듈(1150)은 하나 이상의 컴퓨터 프로그램(1160)을 비임시적으로 저장할 수 있다. 저장 모듈(1150)은 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(1160)은 메모리(1120)에 로드될 때 프로세서(1110)로 하여금 본 개시의 다양한 실시예들에 따른 동작/방법을 수행하도록 하는 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 즉, 프로세서(1110)는 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예들에 따른 동작/방법들을 수행할 수 있다.
예를 들어, 컴퓨터 프로그램(1160)은 대상 환자의 의료 이미지 데이터를 수신하는 동작, 대상 환자의 추가 의료 데이터를 수신하는 동작, 기계학습 예측 모델을 이용하여, 대상 환자의 의료 이미지 데이터 및 대상 환자의 추가 의료 데이터를 기초로, 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 동작 등을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 이와 같은 경우, 컴퓨팅 장치(1100)를 통해 본 개시의 몇몇 실시예들에 따른 환자에 대한 해석가능한 예측 결과 생성 시스템이 구현될 수 있다.
본 개시의 앞선 설명은 통상의 기술자들이 본 개시를 행하거나 이용하는 것을 가능하게 하기 위해 제공된다. 본 개시의 다양한 수정예들이 통상의 기술자들에게 쉽게 자명할 것이고, 본원에 정의된 일반적인 원리들은 본 개시의 취지 또는 범위를 벗어나지 않으면서 다양한 변형예들에 적용될 수도 있다. 따라서, 본 개시는 본원에 설명된 예들에 제한되도록 의도된 것이 아니고, 본원에 개시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위가 부여되도록 의도된다.
비록 예시적인 구현예들이 하나 이상의 독립형 컴퓨터 시스템의 맥락에서 현재 개시된 주제의 양태들을 활용하는 것을 언급할 수도 있으나, 본 주제는 그렇게 제한되지 않고, 오히려 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 현재 개시된 주제의 양상들은 복수의 프로세싱 칩들이나 디바이스들에서 또는 그들에 걸쳐 구현될 수도 있고, 스토리지는 복수의 디바이스들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 디바이스들은 PC들, 네트워크 서버들, 및 핸드헬드 디바이스들을 포함할 수도 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에서 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
100: 정보 처리 시스템
110: 사용자 단말
120: 저장 시스템
130: 사용자

Claims (21)

  1. 적어도 하나의 컴퓨팅 장치에 의해 수행되는, 환자에 대한 해석가능한 예측 결과를 생성하는 방법에 있어서,
    대상 환자의 의료 이미지 데이터를 수신하는 단계;
    상기 대상 환자의 추가 의료 데이터를 수신하는 단계; 및
    기계학습 예측 모델을 이용하여, 상기 대상 환자의 의료 이미지 데이터 및 상기 대상 환자의 추가 의료 데이터를 기초로, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계를 포함하는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  2. 제1항에 있어서,
    상기 기계학습 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 단계를 더 포함하는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  3. 제2항에 있어서,
    상기 대상 환자에 대한 예측 결과에 대한 정보 또는 상기 인자에 대한 정보 중 적어도 하나를 사용자 단말에 제공하는 단계를 더 포함하는,
    환자에 대한 해석가능한 예측 결과 생성 방법.
  4. 제1항에 있어서,
    상기 기계학습 예측 모델은, 제1 서브 예측 모델 및 제2 서브 예측 모델을 포함하고,
    상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계는,
    상기 제1 서브 예측 모델을 이용하여, 상기 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하는 단계; 및
    상기 제2 서브 예측 모델을 이용하여, 상기 하나 이상의 특징 및 상기 대상 환자의 추가 의료 데이터를 기초로, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계
    를 포함하는, 환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  5. 제4항에 있어서,
    상기 기계학습 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하는 단계를 더 포함하고,
    상기 인자에 대한 정보를 생성하는 단계는,
    상기 제2 서브 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득하는 단계를 포함하고,
    상기 복수의 인자는, 상기 대상 환자의 추가 의료 데이터 또는 상기 하나 이상의 특징 중 적어도 하나를 포함하는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  6. 제5항에 있어서,
    상기 인자에 대한 정보를 생성하는 단계는,
    상기 중요도에 대한 정보에 기초하여, 상기 복수의 인자 중 적어도 하나를 예측 이유로서 결정하는 단계를 더 포함하는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  7. 제4항에 있어서,
    상기 하나 이상의 특징은 상기 대상 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징을 포함하는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  8. 제4항에 있어서
    상기 제1 서브 예측 모델은, 참조 환자의 의료 이미지 데이터로부터 하나 이상의 참조 특징을 추출하도록 학습되고,
    상기 제2 서브 예측 모델은, 상기 참조 환자의 추가 의료 데이터와 상기 하나 이상의 참조 특징을 기초로, 상기 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습되는,
    환자에 대한 해석가능한 예측 결과를 생성하는 방법.
  9. 제4항에 있어서,
    상기 제2 서브 예측 모델을 이용하여, 상기 하나 이상의 특징 및 상기 대상 환자의 추가 의료 데이터를 기초로, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계는,
    상기 대상 환자의 추가 의료 데이터와 상기 하나 이상의 특징을 연결(concatenate)하여 상기 제2 서브 예측 모델의 입력 데이터를 생성하는 단계; 및
    상기 생성된 입력 데이터를 상기 제2 서브 예측 모델에 입력함으로써, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는 단계
    를 포함하는, 환자에 대한 해석가능한 예측 결과 생성 방법.
  10. 제1항에 있어서,
    상기 대상 환자의 추가 의료 데이터는 상기 대상 환자의 임상 데이터, 랩(lab) 데이터 또는 생물학적 데이터 중 적어도 하나를 포함하는,
    환자에 대한 해석가능한 예측 결과 생성 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 따른 환자에 대한 해석가능한 예측 결과 생성 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
  12. 정보 처리 시스템으로서,
    하나 이상의 인스트럭션(instructions)을 저장하는 메모리; 및
    상기 저장된 하나 이상의 인스트럭션을 실행함으로써,
    대상 환자의 의료 이미지 데이터를 수신하고,
    상기 대상 환자의 추가 의료 데이터를 수신하고,
    기계학습 예측 모델을 이용하여, 상기 대상 환자의 의료 이미지 데이터 및 상기 대상 환자의 추가 의료 데이터를 기초로, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 구성된 프로세서를 포함하는,
    정보 처리 시스템.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 기계학습 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하도록 더 구성된,
    정보 처리 시스템.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 대상 환자에 대한 예측 결과에 대한 정보 또는 상기 인자에 대한 정보 중 적어도 하나를 사용자 단말에 제공하도록 더 구성된,
    정보 처리 시스템.
  15. 제12항에 있어서,
    상기 기계학습 예측 모델은, 제1 서브 예측 모델 및 제2 서브 예측 모델을 포함하고,
    상기 프로세서는,
    상기 제1 서브 예측 모델을 이용하여, 상기 대상 환자의 의료 이미지 데이터로부터 하나 이상의 특징을 추출하고,
    상기 제2 서브 예측 모델을 이용하여, 상기 하나 이상의 특징 및 상기 대상 환자의 추가 의료 데이터를 기초로, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 더 구성된,
    정보 처리 시스템.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 기계학습 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 영향을 미친 인자에 대한 정보를 생성하고,
    상기 제2 서브 예측 모델을 이용하여, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하는데 있어서 복수의 인자 각각의 중요도에 대한 정보를 획득하도록 더 구성되고,
    상기 복수의 인자는, 상기 대상 환자의 추가 의료 데이터 또는 상기 하나 이상의 특징 중 적어도 하나를 포함하는,
    정보 처리 시스템.
  17. 제16항에 있어서,
    상기 프로세서는,
    상기 중요도에 대한 정보에 기초하여, 상기 복수의 인자 중 적어도 하나를 예측 이유로서 결정하도록 더 구성된,
    정보 처리 시스템.
  18. 제15항에 있어서,
    상기 하나 이상의 특징은 상기 대상 환자에 대한 예측 결과에 대한 정보를 해석하는데 이용가능한 표현형 특징을 포함하는,
    정보 처리 시스템.
  19. 제15항에 있어서,
    상기 제1 서브 예측 모델은, 참조 환자의 의료 이미지 데이터를 기초로 하나 이상의 참조 특징을 추출하도록 학습되고,
    상기 제2 서브 예측 모델은, 상기 참조 환자의 추가 의료 데이터와 상기 하나 이상의 참조 특징을 기초로, 상기 참조 환자에 대한 참조 예측 결과에 대한 참조 정보를 생성하도록 학습되는,
    정보 처리 시스템.
  20. 제15항에 있어서,
    상기 프로세서는,
    상기 대상 환자의 추가 의료 데이터와 상기 하나 이상의 특징을 연결하여 상기 제2 서브 예측 모델의 입력 데이터를 생성하고,
    상기 생성된 입력 데이터를 상기 제2 서브 예측 모델에 입력함으로써, 상기 대상 환자에 대한 예측 결과에 대한 정보를 생성하도록 더 구성된,
    정보 처리 시스템.
  21. 제12항에 있어서,
    상기 대상 환자의 추가 의료 데이터는 상기 대상 환자의 임상 데이터, 랩(lab) 데이터 또는 생물학적 데이터 중 적어도 하나를 포함하는,
    정보 처리 시스템.
KR1020210100989A 2021-07-30 2021-07-30 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템 KR20230018929A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020210100989A KR20230018929A (ko) 2021-07-30 2021-07-30 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템
EP22849678.2A EP4379739A1 (en) 2021-07-30 2022-05-06 Method and system for generating interpretable prediction result for patient
PCT/KR2022/006463 WO2023008699A1 (ko) 2021-07-30 2022-05-06 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템
US17/858,330 US20230030313A1 (en) 2021-07-30 2022-07-06 Method and system for generating interpretable prediction result for patient

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210100989A KR20230018929A (ko) 2021-07-30 2021-07-30 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20230018929A true KR20230018929A (ko) 2023-02-07

Family

ID=85037868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210100989A KR20230018929A (ko) 2021-07-30 2021-07-30 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템

Country Status (4)

Country Link
US (1) US20230030313A1 (ko)
EP (1) EP4379739A1 (ko)
KR (1) KR20230018929A (ko)
WO (1) WO2023008699A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102243830B1 (ko) * 2018-02-22 2021-04-23 고려대학교 산학협력단 통합 의료 진단 서비스 제공 시스템 및 그 방법
WO2020056195A1 (en) * 2018-09-13 2020-03-19 Human Longevity, Inc. Personalized recommenders for disease risk
KR102410786B1 (ko) * 2019-07-31 2022-06-20 주식회사 피디젠 혈중암세포 분석 기반 암 진행 예측 장치
KR102344157B1 (ko) * 2019-11-27 2021-12-28 연세대학교 산학협력단 개인 맞춤형 뇌졸중 진단을 위한 임상 인자 및 의료 영상 처리 시스템
KR20210068713A (ko) * 2019-12-02 2021-06-10 주식회사 피디젠 딥러닝 기반 다중의료데이터를 통한 질병의 진행 예측 분석 시스템

Also Published As

Publication number Publication date
WO2023008699A1 (ko) 2023-02-02
EP4379739A1 (en) 2024-06-05
US20230030313A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
Gutierrez Artificial intelligence in the intensive care unit
Yu et al. Artificial intelligence in healthcare
Jerlin Rubini et al. Efficient classification of chronic kidney disease by using multi‐kernel support vector machine and fruit fly optimization algorithm
CN110459328B (zh) 临床监护设备
Mohammed et al. Novel crow swarm optimization algorithm and selection approach for optimal deep learning COVID‐19 diagnostic model
JP2022534567A (ja) プロトコル構成を決定するための統合ニューラルネットワーク
Ullah et al. A fully connected quantum convolutional neural network for classifying ischemic cardiopathy
Karwande et al. Chexrelnet: An anatomy-aware model for tracking longitudinal relationships between chest x-rays
KR20210139195A (ko) 의학 데이터로부터 바이오마커와 관련된 의학적 예측을 생성하는 방법 및 시스템
Mujkić et al. Machine Intelligence in Biomedical Data Modeling, Processing, and Analysis
KR20230018929A (ko) 환자에 대한 해석가능한 예측 결과를 생성하는 방법 및 시스템
KR20210113084A (ko) 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템
da Costa et al. Classification of x-ray images for detection of childhood pneumonia using pre-trained neural networks
Reddy et al. Big data analytics for healthcare
Sathyanarayanan et al. A Survey of Machine Learning in Healthcare
Susanto et al. How well do AI-enabled decision support systems perform in clinical settings?
Qu et al. Multi-relational Graph Convolutional Neural Networks for Carotid Artery Stenosis Diagnosis via Fundus Images
US20240071621A1 (en) Method and system for predicting risk of occurrence of lesions
Woodman et al. Artificial Intelligence and the Medicine of the Future
EP4273881A2 (en) Method and system for predicting risk of occurrence of lesion
Pareek et al. Classification for Jaundice Symptoms Using Improved Dragonfly with XGBoost Model
Chowdhur An Improved Novel Corona virus (COVID-19) Detection Model Employing Convolutional Neural Networks Based on Lung X-Ray Imag
Singh et al. IMPORTANCE OF ARTIFICIAL INTELLIGENCE IN THE MEDICAL DEVICE AND HEALTH CARE SECTOR
Shyamala et al. Machine Learning Algorithms for Healthcare Data Analytics
EP4379672A1 (en) Methods and systems for classifying a medical image dataset

Legal Events

Date Code Title Description
E902 Notification of reason for refusal