KR102561175B1 - 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템 - Google Patents

의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템 Download PDF

Info

Publication number
KR102561175B1
KR102561175B1 KR1020210029223A KR20210029223A KR102561175B1 KR 102561175 B1 KR102561175 B1 KR 102561175B1 KR 1020210029223 A KR1020210029223 A KR 1020210029223A KR 20210029223 A KR20210029223 A KR 20210029223A KR 102561175 B1 KR102561175 B1 KR 102561175B1
Authority
KR
South Korea
Prior art keywords
lesion
medical image
biomarker
expression
machine learning
Prior art date
Application number
KR1020210029223A
Other languages
English (en)
Other versions
KR20210113084A (ko
Inventor
엄재홍
옥찬영
유동근
Original Assignee
주식회사 루닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루닛 filed Critical 주식회사 루닛
Publication of KR20210113084A publication Critical patent/KR20210113084A/ko
Priority to KR1020230096687A priority Critical patent/KR20230118054A/ko
Application granted granted Critical
Publication of KR102561175B1 publication Critical patent/KR102561175B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B20/00ICT specially adapted for functional genomics or proteomics, e.g. genotype-phenotype associations
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/507Clinical applications involving determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Analytical Chemistry (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Genetics & Genomics (AREA)

Abstract

본 개시는 의료 영상으로부터 바이오마커 발현을 예측하는 방법에 관한 것이다. 바이오마커 발현을 예측하는 방법은, 의료 영상을 수신하는 단계 및 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.

Description

의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템{METHOD AND SYSTEM FOR PREDICTING BIOMARKER EXPRESSION IN MEDICAL IMAGE}
본 개시는 바이오마커 발현을 예측하는 방법 및 시스템에 관한 것으로, 구체적으로, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커 발현을 예측하는 방법 및 시스템에 관한 것이다.
암을 확진하고 적절한 치료법을 제안하기 위해서는 환자의 암 조직을 수집하고, 수집된 암 조직에 대한 정밀 분석이 필요하다. 환자의 암 조직 수집 시, 환자에게 적절한 치료를 제안하기 위해서는, 암 병변 중 대표성을 갖는 병변 수집이 필요하다. 일반적으로, 이러한 임상 시험에서는 임상의의 주관적 판단 하에 환자의 신체에서의 병변이 선택되고 있다. 구체적으로, 임상의들은 병변의 크기, 위치와 같은 기준들을 기초로 판단하나, 그러한 판단 중에 자신의 주관적 기준 또는 판단이 개입되기 때문에 환자의 모든 병변을 대변하는 병변이 수집될 가능성은 높지 않을 수 있다.
또한, 기존의 임상 시험에서의 병변 수집은 환자로부터 특정 약제를 사용하면 효과가 있다는 결과가 나올 때까지 여러 차례 조직 수집이 시행되곤 하였다. 더욱이, 불필요한 조직 수집 과정은 환자의 치료 시기를 늦추는 요인이 되어 환자의 생존에 나쁜 영향을 미칠 수 있다. 나아가, 이러한 조직 수집 행위 자체가 환자의 건강을 위협하고, 육체적으로 힘든 과정일 수 있다.
삭제
한국 공개 특허 제2015-0002284호(2015.01.07)
본 개시는 상기와 같은 문제점을 해결하기 위한 바이오마커 발현을 예측하는 방법, 기록매체에 저장된 컴퓨터 프로그램 및 장치(시스템)를 제공한다.
본 개시는 방법, 장치(시스템) 또는 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 포함한 다양한 방식으로 구현될 수 있다.
본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 실행되는, 의료 영상으로부터 바이오마커 발현을 예측하는 방법은, 의료 영상을 수신하는 단계 및 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 바이오마커의 발현 지표를 출력하는 단계는, 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하는 단계 및 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 바이오마커의 발현 지표를 출력하는 단계는, 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 더 포함한다.
본 개시의 일 실시예에 따르면, 바이오마커의 발현 지표를 출력하는 단계는, 수신된 의료 영상 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 더 포함한다.
본 개시의 일 실시예에 따르면, 수신된 의료 영상 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계는, 수신된 의료 영상의 크기 및 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하는 단계, 조절된 의료 영상 및 조절된 일부 영상을 연결함으로써, 연결된 영상을 생성하는 단계 및 연결된 영상을 제1 기계학습 모델에 입력하여 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상에 포함된 적어도 하나의 병변의 세그멘테이션 정보를 결정하는 단계를 더 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 결정된 적어도 하나의 병변의 세그멘테이션 정보 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상과 연관된 환자 정보를 획득하는 단계 - 환자 정보는 환자의 나이, 성별, 기존 병력, 치료 이력 또는 가족 병력 중 적어도 하나에 대한 정보를 포함함 -를 더 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 획득된 환자 정보 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 적어도 하나의 병변을 나타내는 병변 정보를 획득하는 단계를 더 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 획득된 병변 정보 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상 내의 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 획득하는 단계를 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 획득된 상이한 병변의 바이오마커의 발현 지표 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상을 수신하는 단계는, 제1 의료 영상과 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 수신하는 단계를 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 제1 의료 영상 및 제2 의료 영상의 각각으로부터 적어도 하나의 병변에 대한 영역을 추출하는 단계 및 제1 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역과 제2 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상에 포함된 적어도 하나의 병변은, 의료 영상에 포함된 복수의 병변을 포함한다. 바이오마커의 발현 지표를 출력하는 단계는, 수신된 의료 영상으로부터 복수의 병변에 대한 영역을 추출하는 단계, 추출된 복수의 병변에 대한 영역을 크롭함으로써, 복수의 일부 영상을 생성하는 단계, 생성된 복수의 일부 영상을 제2 기계학습 모델에 입력하여, 복수의 일부 영상의 각각에 대한 특징을 출력하는 단계 및 출력된 복수의 일부 영상의 각각에 대한 특징을 제1 기계학습 모델에 입력하여, 복수의 병변의 각각에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 출력된 바이오마커의 발현 지표를 제3 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하는 단계를 더 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상에 포함된 적어도 하나의 병변은, 의료 영상에 포함된 복수의 병변을 포함한다. 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하는 단계는, 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 의료 영상과 연관된 조직 채취에 대한 기준 정보를 획득하는 단계를 더 포함한다. 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계는, 출력된 바이오마커의 발현 지표 및 획득된 조직 채취에 대한 기준 정보를 제3 기계학습 모델에 입력하여, 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계를 포함한다.
본 개시의 다른 실시예에 따른 정보 처리 시스템은, 하나 이상의 인스트럭션을 저장하는 메모리 및 저장된 하나 이상의 인스트럭션을 실행함으로써, 의료 영상을 수신하고, 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 구성된 프로세서를 포함한다.
본 개시의 일부 실시예에 따르면, 사용자(예를 들어, 의사 등)는 의료 영상에 포함된 적어도 하나의 병변의 바이오마커의 발현 가능성을 확인하고, 조직 채취를 수행할 최적의 병변을 결정할 수 있다.
본 개시의 일부 실시예에 따르면, 결정된 병변에 대한 정보를 제공받은 의사가 불필요한 조직 채취 과정 없이 환자에 대해 조직 채취를 수행할 수 있으므로, 환자의 생존 확률에 중대한 영향을 미치지 않을 수 있다.
본 개시의 일부 실시예에 따르면, 사용자는 출력된 바이오마커의 발현 지표를 확인하고, 바이오마커의 발현 가능성이 가장 높은 병변부터 조직 채취함으로써, 조직 채취에 대한 환자의 부담을 최소화할 수 있다.
본 개시의 일부 실시예에 따르면, 프로세서는 제1 의료 영상뿐만 아니라 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 이용하여 제1 의료 영상 내의 바이오마커의 발현 지표를 예측함으로써, 바이오마커의 발현 지표에 대한 더욱 정확한 예측 결과를 출력할 수 있다.
본 개시의 일부 실시예에 따르면, 프로세서는 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표 및/또는 실제 발현량 등을 이용하여 의료 영상 내의 바이오마커의 발현 지표를 예측함으로써, 바이오마커의 발현 지표에 대한 더욱 정확한 예측 결과를 출력할 수 있다.
본 개시의 일부 실시예에 따르면, 제1 기계학습 모델은 적어도 하나의 영상뿐만 아니라 적어도 하나의 추가 정보를 더 활용하여 바이오마커의 발현 지표를 더 정확하게 예측하고 출력할 수 있다.
본 개시의 일부 실시예에 따르면, 제1 기계학습 모델은 의료 영상뿐만 아니라, 복수의 일부 영상 각각에 대한 특징을 더 활용하여 바이오마커의 발현 지표를 더 정확하게 예측하고 출력할 수 있다.
본 개시의 일부 실시예에 따르면, 사용자는 출력된 조직 채취와 연관된 정보를 이용하여 환자의 병변 중 어떤 병변에서 조직 채취를 수행할지 효율적으로 판단할 수 있다.
본 개시의 일부 실시예에 따르면, 사용자는 의료 영상에 포함된 병변 중 어떤 병변을 우선적으로 검사하는 것이 환자의 치료에 도움이 되는지를 손쉽게 판단할 수 있다.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자("통상의 기술자"라 함)에게 명확하게 이해될 수 있을 것이다.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 바이오마커의 발현 지표를 제공하는 정보 처리 시스템을 나타내는 예시적인 구성도이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 프로세서의 내부 구성을 나타내는 기능적인 블록도이다.
도 4는 본 개시의 일 실시예에 따른 의료 영상으로부터 바이오마커 발현을 예측하는 방법을 나타내는 흐름도이다.
도 5는 본 개시의 일 실시예에 따른 병변에 대한 영역이 표시된 의료 영상을 생성하는 예시를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 바이오마커의 발현 지표가 표시된 영상을 생성하는 예시를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 수신하여 제1 의료 영상의 바이오마커의 발현 지표를 출력하는 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 다른 병변의 바이오마커 발현 지표를 이용하여 특정 병변의 바이오마커 발현 지표를 예측하는 예시를 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따른 인공신경망 모델을 나타내는 예시도이다.
도 10은 본 개시의 일 실시예에 따른 제1 기계학습 모델이 적어도 하나의 영상을 이용하여 바이오마커의 발현 지표를 출력하는 예시를 나타내는 도면이다.
도 11은 본 개시의 일 실시예에 따른 제1 기계학습 모델이 적어도 하나의 영상 및 추가 정보를 이용하여 바이오마커의 발현 지표를 출력하는 예시를 나타내는 도면이다.
도 12는 본 개시의 일 실시예에 따른 제2 기계학습 모델이 복수의 일부 영상을 이용하여 복수의 일부 영상 각각에 대한 특징을 출력하는 예시를 나타내는 도면이다.
도 13은 본 개시의 일 실시예에 따른 제3 기계학습 모델이 바이오마커 발현 지표를 이용하여 조직 채취와 연관된 정보를 출력하는 예시를 나타내는 도면이다.
도 14는 본 개시의 일 실시예에 따른 제3 기계학습 모델이 바이오마커 발현 지표 및 조직 채취에 대한 기준 정보를 이용하여 조직 채취의 우선순위에 대한 정보를 출력하는 예시를 나타내는 도면이다.
도 15는 본 개시의 일 실시예에 따른 바이오마커 발현에 대한 예측 작업을 수행하는 예시적인 시스템 구성도이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.
본 개시에서, '기계학습 모델'은 주어진 입력에 대한 해답(answer)을 추론하는데 사용하는 임의의 모델을 포함할 수 있다. 일 실시예에 따르면, 기계학습 모델은 입력 레이어(층), 복수 개의 은닉 레이어 및 출력 레이어를 포함한 인공신경망 모델을 포함할 수 있다. 여기서, 각 레이어는 복수의 노드를 포함할 수 있다. 본 개시에서, 제1 기계학습 모델, 제2 기계학습 모델, 제3 기계학습 모델 등 복수의 기계학습 모델을 별도의 기계학습 모델로서 설명하나, 이에 한정되지 않으며, 복수의 기계학습 모델의 일부 또는 전체는 하나의 기계학습 모델로 구현될 수 있다. 또한, 본 개시에서, 기계학습 모델은 인공신경망 모델을 지칭할 수 있으며, 인공신경망 모델은 기계학습 모델을 지칭할 수 있다.
본 개시에서, '디스플레이'는 컴퓨팅 장치와 연관된 임의의 디스플레이 장치를 지칭할 수 있는데, 예를 들어, 컴퓨팅 장치에 의해 제어되거나 컴퓨팅 장치로부터 제공된 임의의 정보/데이터를 표시할 수 있는 임의의 디스플레이 장치를 지칭할 수 있다.
본 개시에서, '복수의 A의 각각' 또는 '복수의 A 각각'은 복수의 A에 포함된 모든 구성 요소의 각각을 지칭하거나, 복수의 A에 포함된 일부 구성 요소의 각각을 지칭할 수 있다.
본 개시에서, '바이오마커'는 단백질이나 DNA, RNA, 대사물질 등을 이용해 신체 내 변화를 알아낼 수 있는 지표를 지칭하는 것으로서, 예를 들어, PD-L1, EGFR, DCIS, ALK, ER, HER2, VEGF 등을 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 바이오마커는 미리 설정된 바이오마커일 수 있고, 임의의 기계학습 모델에 의해 선택 또는 설정되는 바이오마커일 수 있다. 또한, '바이오마커의 발현 지표'는 각 병변에 대한 바이오마커의 발현 정도 및/또는 발현 가능성 등을 예측한 지표를 수치로 나타내는 것으로서, 바이오마커의 발현량, 발현도 등의 형태로 출력될 수 있다.
본 개시에서, '의료 영상'은 의료 분야와 연관된 임의의 이미지, 영상 등을 지칭할 수 있다. 또한, 의료 영상은 환자의 적어도 신체의 일부를 촬영한 이미지 또는 영상을 지칭할 수 있는데, 예를 들어, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), PET(Position Emission Tomography), SPECT(Single Photon Emission CT), DBT(Digital Breast Tomosynthesis) 등의 형태로 촬영된 2D 영상, 3D 영상, 합성 영상 등을 포함할 수 있다.
본 개시에서, '크롭(crop)'은 이미지, 영상 등의 적어도 일부 영역을 잘라내어 선택함으로써, 일부 이미지 또는 영상을 생성하는 작업을 지칭할 수 있다. 또한, 크롭은, 컴퓨터 그래픽에서, 가로와 세로의 비례를 바꾸거나 특정 영역을 돋보이게 하거나 윤곽을 개선하기 위하여, 컴퓨터 그래픽의 바깥 부분을 제거하는 작업을 지칭할 수 있다. 예를 들어, 크롭은 2D 컴퓨터 그래픽을 이용한 2D 크롭, 3D 컴퓨터 그래픽을 이용한 3D 크롭 등을 포함할 수 있다.
본 개시에서, '인스트럭션(instruction)'이란, 기능을 기준으로 묶인 하나 이상의 명령어들로서, 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 지칭할 수 있다.
도 1은 본 개시의 일 실시예에 따른 바이오마커의 발현 지표를 제공하는 정보 처리 시스템(120)을 나타내는 예시적인 구성도이다. 도시된 바와 같이, 정보 처리 시스템(120)은 사용자 단말(130) 및 저장 시스템(110)의 각각과 연결되어 통신 가능하도록 구성될 수 있다. 도 1에서는 하나의 사용자 단말(130)이 도시되어 있으나, 이에 한정되지 않으며, 복수의 사용자 단말(130)이 정보 처리 시스템(120)과 연결되어 통신되도록 구성될 수 있다. 또한, 도 1에서는 정보 처리 시스템(120)이 하나의 컴퓨팅 장치로서 도시되어 있으나, 이에 한정되지 않으며, 정보 처리 시스템(120)은 복수의 컴퓨팅 장치를 통해 정보 및/또는 데이터를 분산 처리하도록 구성될 수 있다. 또한, 도 1에서는 저장 시스템(110)이 하나의 장치로서 도시되어 있으나, 이에 한정되지 않으며, 복수의 저장 장치로 구성되거나 클라우드(cloud)를 지원하는 시스템으로 구성될 수 있다. 또한, 도 1에서는 바이오마커의 발현 지표를 제공하는 시스템의 각각의 구성요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로, 복수의 구성 요소가 실제 물리적 환경에서 서로 통합되는 형태로 구현될 수 있다.
정보 처리 시스템(120) 및/또는 사용자 단말(130)은 의료 영상에 포함된 바이오마커의 발현 지표에 대한 정보를 제공하는데 이용되는 임의의 컴퓨팅 장치이다. 여기서 컴퓨팅 장치는, 컴퓨팅 기능이 구비된 임의의 종류의 장치를 지칭할 수 있으며, 예를 들어, 노트북, 데스크톱(desktop), 랩탑(laptop), 테블릿 컴퓨터(tablet computer), 서버, 클라우드 시스템 등이 될 수 있으나, 이에 한정되지 않는다. 정보 처리 시스템(120)은 의료 영상(150)을 사용자 단말(130)의 디스플레이 장치에 출력하여 사용자(140)에게 제공할 수 있다. 이 경우, 정보 처리 시스템(120)은 사용자 단말(130)을 통해 의료 영상(150)에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(160_1, 160_2, 160_3)를 포함하는 영상을 사용자(140)에게 제공할 수 있다.
일 실시예에 따르면, 정보 처리 시스템(120)은 의료 영상(150)을 수신할 수 있다. 여기서, 의료 영상(150)은 의료 분야와 연관된 임의의 이미지, 영상 등을 지칭할 수 있으며, 예를 들어, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), PET(Position Emission Tomography), SPECT(Single Photon Emission CT), DBT(Digital Breast Tomosynthesis) 등의 2D 영상, 3D 영상, 합성 영상 등을 포함할 수 있다. 이와 같은 의료 영상(150)은 정보 처리 시스템(120)과 연관된 장치에 의해 직접 촬영되거나, 외부 시스템(예를 들어, 사용자 단말(130), 저장 시스템(110) 등)으로부터 수신될 수도 있다.
그리고 나서, 정보 처리 시스템(120)은 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 예를 들어, 정보 처리 시스템(120)은 세 가지 병변에 대한 특정 바이오마커의 발현 지표(160_1, 160_2, 160_3)를 예측할 수 있다. 다른 예에서, 정보 처리 시스템(120)은 적어도 하나의 병변에 대한 복수의 바이오마커 각각의 발현 지표를 예측할 수도 있다. 여기서, 바이오마커는 단백질이나 DNA, RNA, 대사물질 등을 이용해 신체 내 변화를 알아낼 수 있는 지표를 지칭하는 것으로서, 예를 들어, PD-L1, EGFR, DCIS, ALK, ER, HER2, VEGF 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 바이오마커의 발현 지표(160_1, 160_2, 160_3)는 각 병변에 대한 바이오마커의 발현 정도 및/또는 발현 가능성 등을 나타내는 것으로서, 바이오마커의 발현량, 발현도 등의 형태로 출력될 수 있다.
의료 영상(150)에 포함된 병변에 대한 바이오마커의 발현 지표(160_1, 160_2, 160_3)를 출력하기 위해, 정보 처리 시스템(120)은 먼저 의료 영상(150)으로부터 적어도 하나의 병변에 대한 영역을 추출할 수 있다. 이 경우, 의료 영상(150)으로부터 병변에 대한 영역을 추출하기 위한 임의의 알고리즘 및/또는 임의의 기계학습 모델이 사용될 수 있다. 추가적으로 또는 대안적으로, 정보 처리 시스템(120)은 병변에 대한 영역이 결정된 의료 영상(150)을 수신할 수도 있다.
일 실시예에 따르면, 사용자(140)는 사용자 단말(130)을 통해 출력된 바이오마커의 발현 지표(160_1, 160_2, 160_3)를 이용하여 조직 채취(생검; biopsy)를 수행할 병변을 결정할 수 있다. 예를 들어, 사용자(140)는 의료 영상(150)에 포함된 다양한 병변 중 바이오마커의 발현 가능성이 높은 하나의 병변을 선택하여 조직 채취를 수행할 수 있다. 추가적으로 또는 대안적으로, 정보 처리 시스템(120)은 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력할 수 있다. 이 경우, 사용자(140)는 조직 채취의 우선순위가 가장 높은 하나의 병변을 선택하여 조직 채취를 수행할 수도 있다. 이와 같은 구성에 의해, 사용자(140)는 의료 영상(150)에 포함된 적어도 하나의 병변의 바이오마커의 발현 가능성을 확인하고, 조직 채취를 수행할 최적의 병변을 결정할 수 있다.
저장 시스템(110)은 의료 영상(150)에 포함된 병변에 대한 바이오마커의 발현 지표(160_1, 160_2, 160_3)를 제공하기 위한 기계학습 모델과 연관된 각종 데이터를 저장하고 관리하는 장치 또는 클라우드 시스템이다. 데이터의 효율적인 관리를 위해, 저장 시스템(110)은, 데이터베이스를 이용하여 각종 데이터를 저장하고 관리할 수 있다. 여기서, 각종 데이터는 기계학습 모델과 연관된 임의의 데이터를 포함할 수 있으며, 예를 들어, 환자의 의료 영상, 특정 병변에 대한 바이오마커의 발현 지표가 출력된 의료 영상, 다른 시점의 의료 영상, 다른 병변에 대한 바이오마커의 발현 지표가 출력된 의료 영상, 바이오마커에 대한 정보, 환자 정보, 세그멘테이션 정보, 병변 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 도 1에서는 정보 처리 시스템(120)과 저장 시스템(110)이 별도의 시스템으로 도시되어 있으나, 이에 한정되지 않으며, 하나의 시스템으로 통합되어 구성될 수 있다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템(120)의 내부 구성을 나타내는 블록도이다. 정보 처리 시스템(120)은 메모리(210), 프로세서(220), 통신 모듈(230) 및 입출력 인터페이스(240)를 포함할 수 있다. 도 2에 도시된 바와 같이, 정보 처리 시스템(120)은 통신 모듈(230)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.
메모리(210)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(210)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 정보 처리 시스템(120)에 포함될 수 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 정보 처리 시스템(120)에 설치되어 구동되는 바이오마커의 발현 지표 출력, 조직 채취와 연관된 정보의 출력 등을 위한 코드)가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 이러한 정보 처리 시스템(120)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(230)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(예를 들어, 바이오마커의 발현 지표 출력, 조직 채취와 연관된 정보의 출력 등을 위한 프로그램 등)에 기반하여 메모리(210)에 로딩될 수 있다.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 사용자 단말(미도시) 또는 다른 외부 시스템으로 제공될 수 있다. 예를 들어, 프로세서(220)는 의료 영상을 수신하고, 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 이 경우, 프로세서(220)는 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성할 수 있다. 그리고 나서, 프로세서(220)는 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
통신 모듈(230)은 네트워크를 통해 사용자 단말(미도시)과 정보 처리 시스템(120)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 정보 처리 시스템(120)이 외부 시스템(일례로 별도의 클라우드 시스템 등)과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일례로, 정보 처리 시스템(120)의 프로세서(220)의 제어에 따라 제공되는 제어 신호, 명령, 데이터 등이 통신 모듈(230)과 네트워크를 거쳐 사용자 단말 및/또는 외부 시스템의 통신 모듈을 통해 사용자 단말 및/또는 외부 시스템으로 전송될 수 있다. 예를 들어, 사용자 단말 및/또는 외부 시스템은 정보 처리 시스템(120)으로부터 결정된 바이오마커의 발현 지표에 대한 정보 등을 전달받을 수 있다.
또한, 정보 처리 시스템(120)의 입출력 인터페이스(240)는 정보 처리 시스템(120)과 연결되거나 정보 처리 시스템(120)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 도 2에서는 입출력 인터페이스(240)가 프로세서(220)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(240)가 프로세서(220)에 포함되도록 구성될 수 있다. 정보 처리 시스템(120)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다.
정보 처리 시스템(120)의 프로세서(220)는 복수의 사용자 단말 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 일 실시예에 따르면, 프로세서(220)는 사용자 단말 및/또는 외부 시스템으로부터 의료 영상을 수신할 수도 있다. 이 경우, 프로세서(220)는 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
도 3은 본 개시의 일 실시예에 따른 프로세서(220)의 내부 구성을 나타내는 기능적인 블록도이다. 도시된 바와 같이, 프로세서(220)는 전처리기(310), 병변 검출기(320), 병변 분석기(330), 조직 채취 분석기(340) 등을 포함할 수 있다. 이 경우, 프로세서(220)는 의료 영상을 포함하는 데이터베이스 및/또는 외부 장치(예를 들어, 사용자 단말 또는 외부 시스템 등)와 통신하며, 바이오마커 발현 예측에 필요한 의료 영상을 수신할 수 있다.
전처리기(310)는 수신된 의료 영상에 대한 전처리(preprocessing)를 수행할 수 있다. 일 실시예에 따르면, 전처리기(310)는 의료 영상을 수신하고, 획득된 영상을 특정 차원의 영상으로 구축할 수 있다. 예를 들어, 전처리기(310)는 2차원 의료 영상을 3차원 의료 영상으로 구축 및/또는 변경하거나, 3차원 의료 영상을 2차원 의료 영상으로 구축 및/또는 변경할 수 있다. 또한, 전처리기(310)는 수신된 의료 영상 내의 하나의 픽셀(pixel)의 길이가 미리 지정된 길이가 되도록 리샘플링(resampling)할 수도 있다. 즉, 전처리기(310)는 병변 검출 및/또는 병변 분석에 적합한 형태로 수신된 의료 영상에 대한 전처리를 수행할 수 있다.
병변 검출기(320)는 수신되거나 입력된 의료 영상을 기초로, 해당 의료 영상에 포함된 적어도 하나의 병변에 대한 영역을 추출할 수 있다. 여기서, 병변에 대한 영역은 의료 영상 내에서 병변이 존재하는 것으로 판정된 병변의 위치 또는 크기 중 적어도 하나를 포함할 수 있다. 예를 들어, 병변 검출기(320)는 의료 영상 내의 병변, 병변이 존재할 가능성, 예측되는 병변의 위치 및 크기 등을 추출하도록, 미리 결정된 알고리즘 및/또는 기계학습 모델 (예: 인공신경망 모델 중 RNN, CNN, FCNN 등)을 이용하여 병변에 대한 영역을 추출할 수 있다. 추가적으로 또는 대안적으로, 병변의 위치 및 크기 중 적어도 하나는 사용자에 의해 선택 또는 입력될 수 있고, 병변 검출기(320)가 검출한 병변의 위치 및 크기 중 적어도 하나가 사용자에 의해 수정될 수도 있다.
일 실시예에 따르면, 프로세서(220)는 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성할 수 있다. 나아가, 프로세서(220)는 수신된 의료 영상의 크기 및 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하고, 조절된 의료 영상 및 조절된 일부 영상을 연결(concatenate)함으로써, 연결된 영상을 생성할 수도 있다. 이와 같이, 생성된 의료 영상, 일부 영상 및/또는 연결된 영상은 바이오마커의 발현 지표를 추출하기 위해 사용될 수 있다.
병변 분석기(330)는 2D 영상, 3D 영상 등의 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 병변 분석기(330)는 미리 결정된 알고리즘, 기계학습 모델(예: 인공신경망 모델 중 RNN, CNN, FCNN 등) 등을 이용하여 바이오마커의 발현 지표를 출력할 수 있다. 일 실시예에서, 병변 분석기(330)는 제1 기계학습 모델에 해당할 수 있다. 일 실시예에 따르면, 병변 분석기(330)는 의료 영상, 일부 영상 및/또는 연결된 영상을 기초로 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 예측하고 출력할 수 있다.
학습의 측면에서, 병변 분석기(330)는 다양한 데이터 및 방식으로, 병변에서의 특정 바이오마커의 발현과 관련된 예측을 위해 학습될 수 있다. 예를 들어, 병변 분석기(330)는 특정 영상(2D 영상, 3D 영상 등)에서 확인된 바이오마커의 실제 발현도를 이용하여 학습될 수 있다. 여기서, 바이오마커의 실제 발현도는 조직 채취 등과 같은 임상적 방법으로 확인된 발현도를 의미할 수 있다. 일 실시예에 따르면, 3D 의료 영상은 2D 의료 영상에 비해 수가 제한적일 수 있으므로, 데이터 수집이 어려울 수 있다. 이 경우, 프로세서(220)는 2D axial 영상을 2D CNN 모델에 입력하여, 모델을 학습시키고, 학습된 모델의 파라미터를 3D 파라미터로 확장(dilate)시킬 수 있다. 이와 같은 구성에 의해, 프로세서(220)는 3D 영상 데이터를 미세조정(fine-tune)해서, 2D 영상 학습을 통해 얻은 지식을 활용한 3D 영상 모델을 생성할 수 있다.
일 실시예에 따르면, 병변 분석기(330)는 의료 영상 및 적어도 하나의 추가 정보를 이용하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 예측하고 출력할 수 있다. 예를 들어, 병변 분석기(330)는 의료 영상에 포함된 적어도 하나의 병변의 세그멘테이션 정보를 결정하고, 해당 세그멘테이션 정보를 이용하여 바이오마커의 발현 지표를 예측할 수 있다. 다른 예에서, 병변 분석기(330)는 의료 영상과 연관된 환자 정보를 획득하고, 해당 환자 정보를 이용하여 바이오마커의 발현 지표를 예측할 수 있다. 또 다른 예에서, 병변 분석기(330)는 적어도 하나의 병변을 나타내는 병변 정보를 획득하고, 해당 병변 정보를 이용하여 바이오마커의 발현 지표를 예측할 수 있다. 이 경우, 병변 분석기(330)는 벡터 형태로 인코딩된 세그멘테이션 정보, 환자 정보, 병변 정보 등을 바이오마커의 발현 지표를 예측하기 위한 추가 정보로서 사용할 수 있다.
추가적으로 또는 대안적으로, 병변 분석기(330)는 의료 영상(예: 제1 의료 영상)과 상이한 시점에 촬영된 다른 의료 영상(예: 제2 의료 영상)을 수신하고, 다른 의료 영상을 이용하여 바이오마커의 발현 지표를 예측할 수 있다. 예를 들어, 병변 분석기(330)는 의료 영상 및 다른 의료 영상에서 병변에 대한 영역을 추출하고, 각 영상에서의 동일한 병변을 구분할 수 있다. 그리고 나서, 병변 분석기(330)는 동일한 것으로 구분된 병변들의 변화를 기초로 바이오마커의 발현 지표를 예측할 수 있다.
추가적으로 또는 대안적으로, 병변 분석기(330)는 의료 영상에 포함된 하나의 병변에 대하여 추출된 실제 바이오마커의 발현 지표를 기초로 해당 의료 영상에 포함된 다른 병변들에 대한 바이오마커의 발현 지표를 예측하고 출력할 수 있다. 다시 말해, 병변 분석기(330)는 의료 영상 내의 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 획득하고, 획득된 상이한 병변의 바이오마커의 발현 지표 및 생성된 일부 영상을 이용하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
일 실시예에 따르면, 프로세서(220)는 수신된 의료 영상으로부터 복수의 병변에 대한 영역을 추출하고, 추출된 복수의 병변에 대한 영역을 크롭함으로써, 복수의 일부 영상을 생성할 수 있다. 이 경우, 프로세서(220)는 생성된 복수의 일부 영상을 제2 기계학습 모델에 입력하여, 복수의 일부 영상의 각각에 대한 특징을 출력할 수 있다. 여기서, 제2 기계학습 모델은 임의의 기계학습 모델(예: 인공신경망 모델 중 RNN, CNN, FCNN 등)로 구현된 특징 추출 모델(feature extraction model)을 포함할 수 있다. 이와 같이 출력된 복수의 일부 영상의 각각에 대한 특징은 복수의 병변의 각각에 대한 바이오마커의 발현 지표를 예측하거나 출력하기 위해 사용될 수 있다. 추가적으로 또는 대안적으로, 제2 기계학습 모델은 일부 영상뿐만 아니라, 전체 의료 영상을 수신하도록 구성될 수 있다. 이 경우, 의료 영상에 대한 환자의 전체적인 상태를 인코딩(encoding)함으로써, 환자의 병변에 특정 바이오마커의 발현 지표를 예측하는데 있어, 의료 영상에 포함된 환자의 전체적인 상태를 고려할 수 있다.
조직 채취 분석기(340)는 출력된 바이오마커의 발현 지표를 이용하여 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력할 수 있다. 조직 채취 분석기(340)는 미리 결정된 알고리즘, 기계학습 모델(예: 인공신경망 모델 중 RNN, CNN, FCNN 등) 등을 이용하여 조직 채취와 연관된 정보를 출력할 수 있으며, 예를 들어, 조직 채취 분석기(340)는 제3 기계학습 모델에 해당할 수 있다. 또한, 조직 채취와 연관된 정보는 병변에 대한 조직 채취 위치 및 크기, 조직 채취 우선순위, 조직 채취 방법 등을 포함할 수 있다. 예를 들어, 조직 채취 방법은 환부로 바늘을 찔러 세포를 확보하는 경피적 침 생검(percutaneous needle biopsy)과 환부를 절개하여 직접 조직을 채취하는 개방 생검(open biopsy) 등을 포함할 수 있으며, 이 경우, 조직 채취 분석기(340)는 병변의 위치 및 크기에 따라 특정 생검의 적합성을 나타내는 정보 등을 출력할 수 있다.
의료 영상에 포함된 적어도 하나의 병변은, 의료 영상에 포함된 복수의 병변을 포함할 수 있으며, 이 경우, 조직 채취 분석기(340)는 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력할 수 있다. 예를 들어, 조직 채취의 우선순위에 대한 정보는 복수의 병변 중 바이오마커 발현 지표 등을 기초로 결정된, 조직 채취에 적합한 각 병변의 순위를 포함할 수 있다. 일 실시예에 따르면, 조직 채취 분석기(340)는 의료 영상과 연관된 조직 채취에 대한 기준 정보를 획득하고, 출력된 바이오마커의 발현 지표 및 획득된 조직 채취에 대한 기준 정보를 이용하여 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력할 수 있다. 여기서, 조직 채취에 대한 기준 정보는, 바이오마커 발현 지표 등과 함께 조직 채취의 적합성을 결정하기 위해 사용될 수 있는 임의의 정보로서, 환자의 기저 병력, 시술의 위험성(ex. 병변 주위에 대혈관 및 주요 장기가 위치해 있는지), 병변의 위치(ex. 병변이 경피적 (Percutaneous) 접근이 가능한 위치에 있는지), 병변의 크기(ex. 병변의 크기가 샘플 채취 가능한 크기(ex. 1cm 이상)인지) 등에 대한 정보를 포함할 수 있다.
도 3에서는 프로세서(220)의 구성을 각각의 기능별로 구분하여 설명하였으나, 반드시 물리적으로 구분되는 것을 의미하지 않는다. 예를 들어, 병변 검출기(320)와 병변 분석기(330)는 구분되어 상술되었으나, 이는 발명의 이해를 돕기 위한 것으로서, 이에 한정되지 않는다. 예를 들어, 병변 검출기(320), 병변 분석기(330) 및 조직 채취 분석기(340)는 하나의 인공신경망 모델을 통해 구현되거나, 상이한 복수의 인공신경망 모델을 통해 구현될 수 있다. 이와 같은 구성에 의해, 프로세서(220)는 각 병변에 대한 영역 및 바이오마커의 발현 지표 등을 예측하고, 예측된 각 병변에 대한 영역의 바이오마커 발현 지표, 조직 채취에 대한 기준 정보 등을 이용하여 조직 채취를 수행하기에 가장 적합한 병변을 간단히 결정할 수 있다. 또한, 이와 같이 결정된 병변에 대한 정보를 제공받은 의사가 환자에 대해 조직 채취를 수행하는 경우, 불필요한 조직 채취 과정을 제거함으로써, 환자가 느낄 수 있는 불편함을 없앨 수 있으며, 환자의 생존 확률에 중대한 영향을 미치지 않을 수 있다.
도 4는 본 개시의 일 실시예에 따른 의료 영상으로부터 바이오마커 발현을 예측하는 방법(400)을 나타내는 흐름도이다. 일 실시예에 따르면, 바이오마커 발현을 예측하는 방법(400)은 프로세서(예를 들어, 사용자 단말의 프로세서 및/또는 정보 처리 시스템의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 도시된 바와 같이, 바이오마커 발현을 예측하는 방법(400)은 프로세서가 의료 영상을 수신함으로써 개시될 수 있다(S410). 예를 들어, 프로세서는 정보 처리 시스템과 연관된 임의의 장치를 이용하여 의료 영상을 직접 촬영하거나, 외부 장치(예를 들어, 사용자 단말 또는 데이터베이스)으로부터 의료 영상을 수신할 수 있다.
프로세서는 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다(S420). 일 실시예에 따르면, 프로세서는 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출할 수 있다. 여기서, 병변에 대한 영역은 병변의 위치 및 크기 중 적어도 하나를 포함할 수 있다. 그리고 나서, 프로세서는 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성할 수 있다. 또한, 프로세서는 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
일 실시예에 따르면, 프로세서는 수신된 의료 영상 및 생성된 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 수신된 의료 영상의 크기 및 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하고, 조절된 의료 영상 및 조절된 일부 영상을 연결함으로써, 연결된 영상을 생성할 수 있다. 그리고 나서, 프로세서는 연결된 영상을 제1 기계학습 모델에 입력하여 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수도 있다.
도 5는 본 개시의 일 실시예에 따른 병변에 대한 영역이 표시된 의료 영상(520)을 생성하는 예시를 나타내는 도면이다. 상술된 바와 같이, 프로세서(예를 들어, 정보 처리 시스템의 적어도 하나의 프로세서 등)는 특정 환자와 연관된 의료 영상(510)을 수신할 수 있다. 도시된 예에서, 의료 영상(510)은 환자와 연관된 CT 영상인 것으로 도시되었으나, 이에 한정되지 않으며, 환자와 연관된 임의의 영상, 예를 들어, MRI, PET, SPECT, DBT 등의 2D 영상, 3D 영상, 합성 영상 등을 포함할 수도 있다.
일 실시예에 따르면, 프로세서는 의료 영상(510)으로부터 병변에 대한 영역을 추출하여 병변에 대한 영역이 표시된 의료 영상(520)을 생성할 수 있다. 예를 들어, 프로세서는 병변 검출기에 의료 영상(510)을 입력하여 병변에 대한 영역을 검출하고, 검출된 병변에 대한 영역이 표시된 의료 영상(520)을 생성할 수 있다. 여기서, 병변에 대한 영역은 병변의 위치, 크기 등을 포함할 수 있다.
도 5에서는 의료 영상(520)에서 병변에 대한 영역이 사각형의 박스 형태로 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 임의의 다각형의 형태, 병변의 외곽선의 형태 등으로 표시될 수도 있다. 또한, 도 5에서는 의료 영상(520) 내에 병변에 대한 영역이 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 프로세서는 수신된 의료 영상(510)으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 의료 영상(510) 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성하여, 디스플레이 장치 상에 출력할 수도 있다. 또한, 도 5에서는 도시되지 않았으나, 의료 영상(520)은 병변에 대한 영역뿐만 아니라, 병변에 대한 정보 등이 표시될 수 있다.
도 6은 본 개시의 일 실시예에 따른 바이오마커의 발현 지표가 표시된 영상을 생성하는 예시를 나타내는 도면이다. 도 6에 도시된 바와 같이, 의료 영상으로부터 검출된 병변에 대한 영역의 각각에 대하여 바이오마커의 발현 지표가 출력될 수 있다. 일 실시예에 따르면, 프로세서는 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 예를 들어, 제1 기계학습 모델은 의료 영상에 포함된 적어도 하나의 병변에 대한 특정 바이오마커의 발현 지표를 출력하도록 구성될 수 있다. 여기서, 특정 바이오마커는 하나 이상의 바이오마커일 수 있다. 그리고 나서, 출력된 바이오마커의 발현 지표가 표시된 영상(610)이 출력되거나 표시될 수 있다.
상술된 바와 같이, 바이오마커는 단백질이나 DNA, RNA, 대사물질 등을 이용해 신체 내 변화를 알아낼 수 있는 지표를 지칭할 수 있다. 즉, 바이오마커는 질병마다 상이할 수 있으며, 동일한 질병이라도 서로 다른 복수의 바이오마커가 존재할 수 있다. 이 경우, 의료 영상에서 추출되는 바이오마커는 사용자에 의해 선택되거나, 검출된 병변에 대한 영역을 기초로 결정 또는 특정될 수 있다. 다시 말해, 프로세서는 특정된 바이오마커에 대한 발현 지표를 예측하고 출력할 수 있다.
도 6에서는 각 병변에 대한 바이오마커의 발현 지표가 퍼센트(%)의 형태로 출력되는 것으로 도시되었으나, 이에 한정되지 않으며, 점수(score)의 형태로 출력될 수도 있다. 또한, 도 6에서는 바이오마커의 발현 지표만이 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 해당 바이오마커와 관련된 정보(예를 들어, 해당 바이오마커와 연관된 질병의 명칭, 해당 바이오마커의 명칭 등)가 바이오마커의 발현 지표와 함께 출력될 수도 있다. 이와 같은 구성에 의해, 사용자는 출력된 바이오마커의 발현 지표를 확인하고, 바이오마커의 발현 가능성이 가장 높은 병변부터 조직 채취하여 조직 채취에 대한 환자의 부담을 최소화할 수 있다.
도 7은 본 개시의 일 실시예에 따른 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상(710)을 수신하여 제1 의료 영상의 바이오마커의 발현 지표를 출력하는 예시를 나타내는 도면이다. 상술된 바와 같이, 프로세서는 의료 영상을 수신하고, 바이오마커의 발현 지표를 출력할 수 있다. 이 경우, 프로세서는 제1 의료 영상(예를 들어, 도 5의 510)과 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상(710)을 수신하고, 바이오마커의 발현 지표를 출력할 수 있다. 여기서, 제1 의료 영상 및 제2 의료 영상은 동일한 환자의 동일 또는 유사한 신체 부위를 촬영하여 획득된 영상에 해당할 수 있다.
일 실시예에 따르면, 프로세서는 제1 의료 영상 및 제2 의료 영상(710)의 각각으로부터 적어도 하나의 병변에 대한 영역을 추출할 수 있다. 그리고 나서, 제1 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역과 제2 의료 영상(710)으로부터 추출된 적어도 하나의 병변에 대한 영역을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
이를 위해, 프로세서는 제2 의료 영상(710)에서 병변에 대한 영역을 추출하고, 추출된 병변에 대한 영역에 대한 바이오마커의 발현 지표를 예측하고, 예측된 바이오마커의 발현 지표가 표시된 영상(720)을 디스플레이 장치 등에 출력할 수 있다. 다른 예에서, 프로세서는 제2 의료 영상(710)에 대하여 미리 예측된 각 병변에 대한 바이오마커의 발현 지표를 외부 시스템 등으로부터 수신할 수도 있다.
그리고 나서, 프로세서는 제1 의료 영상뿐만 아니라, 제2 의료 영상(710)으로부터 예측된 바이오마커의 발현 지표에 대한 정보를 더 이용하여, 제1 의료 영상 내의 바이오마커의 발현 지표를 예측할 수 있다. 프로세서는 이렇게 예측된 제1 의료 영상 내의 바이오마커의 발현 지표가 표시된 영상(730)을 디스플레이 장치 등에 출력하거나 표시할 수 있다. 이와 같이, 제1 의료 영상 및 제2 의료 영상(710)을 모두 이용하여 예측된 바이오마커의 발현 지표는 제1 의료 영상만을 이용하여 예측된 바이오마커의 발현 지표와 상이할 수 있다.
도 7에서는 각 병변에 대한 바이오마커의 발현 지표가 퍼센트(%)의 형태로 출력되는 것으로 도시되었으나, 이에 한정되지 않으며, 점수(score)의 형태로 출력될 수도 있다. 또한, 도 7에서는 바이오마커의 발현 지표만이 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 해당 바이오마커와 연관된 정보(예를 들어, 질병의 명칭, 해당 바이오마커의 명칭 등)가 바이오마커의 발현 지표와 함께 출력될 수도 있다. 이와 같은 구성에 의해, 프로세서는 제1 의료 영상뿐만 아니라 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 이용하여, 제1 의료 영상 내의 바이오마커의 발현 지표를 예측함으로써, 병변의 특정 바이오마커의 발현 지표를 더욱 정확히 예측할 수 있다.
도 8은 본 개시의 일 실시예에 따른 다른 병변의 바이오마커 발현 지표를 이용하여 특정 병변의 바이오마커 발현 지표를 예측하는 예시를 나타내는 도면이다. 일 실시예에 따르면, 프로세서는 의료 영상 내의 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 획득할 수 있다. 여기서, 상이한 병변의 바이오마커는 의료 영상 내의 적어도 하나의 병변의 바이오마커와 동일하거나 상이할 수 있다. 예를 들어, 의료 영상 내의 적어도 하나의 병변의 바이오마커가 PD-L1인 경우, 상이한 병변의 바이오마커는 PD-L1, EGFR, DCIS, ALK, ER, HER2, VEGF 등에 해당할 수 있다.
일 실시예에 따르면, 상이한 병변의 바이오마커의 발현 지표가 표시된 영상(810)이 디스플레이 장치 등에 출력될 수 있다. 이 경우, 프로세서는 획득된 상이한 병변의 바이오마커의 발현 지표 및 의료 영상에 포함된 병변에 대한 영역을 크롭하여 생성된 일부 영상)을 제1 기계학습 모델에 입력하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 여기서, 제1 기계학습 모델은 적어도 하나의 병변에 대한 영역을 포함한 일부 영상 및 상이한 병변의 발현 지표에 대한 정보를 기초로, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 학습될 수 있다. 또한, 상이한 병변의 바이오마커의 발현 지표는 기계학습 모델을 통해 출력된 상이한 병변의 예측된 바이오마커의 발현 지표뿐만 아니라, 실제 조직 채취 등으로 확인된 상이한 병변의 바이오마커의 실제 발현량을 포함할 수 있다.
이러한 방법 하에서, 프로세서는 수신된 의료 영상뿐만 아니라, 상이한 병변의 바이오마커의 발현 지표에 대한 정보를 더 이용하여, 의료 영상 내의 적어도 하나의 병변의 바이오마커의 발현 지표를 예측할 수 있다. 그리고 나서, 프로세서는 예측된 의료 영상 내의 적어도 하나의 병변에 대한 바이오마커의 발현 지표가 표시된 영상(820)을 디스플레이 장치 등에 표시할 수 있다. 이와 같이, 의료 영상 및 상이한 병변의 바이오마커의 발현 지표를 모두 이용하여 예측된 의료 영상 내의 적어도 하나의 바이오마커의 발현 지표는 의료 영상만을 이용하여 예측된 바이오마커의 발현 지표와 상이할 수 있다.
도 8에서는 바이오마커의 발현 지표만이 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 해당 바이오마커와 연관된 정보(예를 들어, 질병의 명칭, 해당 바이오마커의 명칭 등)가 바이오마커의 발현 지표와 함께 출력될 수도 있다. 이와 같은 구성에 의해, 프로세서는 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 이용하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 예측함으로써, 더욱 정확한 예측 결과를 출력할 수 있다.
도 9는 본 개시의 일 실시예에 따른 인공신경망 모델(900)을 나타내는 예시도이다. 인공신경망 모델(900)은, 기계학습 모델의 일 예로서, 기계학습(Machine Learning) 기술과 인지과학에서, 생물학적 신경망의 구조에 기초하여 구현된 통계학적 학습 알고리즘 또는 그 알고리즘을 실행하는 구조이다.
일 실시예에 따르면, 인공신경망 모델(900)은, 생물학적 신경망에서와 같이 시냅스의 결합으로 네트워크를 형성한 인공 뉴런인 노드(Node)들이 시냅스의 가중치를 반복적으로 조정하여, 특정 입력에 대응한 올바른 출력과 추론된 출력 사이의 오차가 감소되도록 학습함으로써, 문제 해결 능력을 가지는 기계학습 모델을 나타낼 수 있다. 예를 들어, 인공신경망 모델(900)은 기계 학습, 딥러닝 등의 인공지능 학습법에 사용되는 임의의 확률 모델, 뉴럴 네트워크 모델 등을 포함할 수 있다.
일 실시예에 따르면, 상술된 병변 검출기, 병변 분석기 및/또는 조직 채취 분석기가 기계학습 모델의 한 형태로서, 인공신경망 모델(900)의 형태로 생성될 수 있다. 예를 들어, 인공신경망 모델(900)은 의료 영상을 수신하고, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다. 다른 예에서, 프로세서는 인공신경망 모델(900)을 이용하여 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성할 수 있다. 또 다른 예에서, 인공신경망 모델(900)은 복수의 일부 영상을 이용하여 복수의 일부 영상의 각각에 대한 특징을 출력하도록 구성될 수 있다. 또 다른 예에서, 인공신경망 모델(900)은 출력된 바이오마커의 발현 지표를 이용하여 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하도록 구성될 수 있다.
인공신경망 모델(900)은 다층의 노드들과 이들 사이의 연결로 구성된 다층 퍼셉트론(MLP: multilayer perceptron)으로 구현된다. 본 실시예에 따른 인공신경망 모델(900)은 MLP를 포함하는 다양한 인공신경망 모델 구조들 중의 하나를 이용하여 구현될 수 있다. 도 9에 도시된 바와 같이, 인공신경망 모델(900)은, 외부로부터 입력 신호 또는 데이터(910)를 수신하는 입력층(920), 입력 데이터에 대응한 출력 신호 또는 데이터(950)를 출력하는 출력층(940), 입력층(920)과 출력층(940) 사이에 위치하며 입력층(920)으로부터 신호를 받아 특성을 추출하여 출력층(940)으로 전달하는 n개(여기서, n은 양의 정수)의 은닉층(930_1 내지 930_n)으로 구성된다. 여기서, 출력층(940)은 은닉층(930_1 내지 930_n)으로부터 신호를 받아 외부로 출력한다.
인공신경망 모델(900)의 학습 방법에는, 교사 신호(정답)의 입력에 의해서 문제의 해결에 최적화되도록 학습하는 지도 학습(Supervised Learning) 방법과, 교사 신호를 필요로 하지 않는 비지도 학습(Unsupervised Learning) 방법이 있다. 정보 처리 시스템은 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 추론하도록 학습된 인공신경망 모델(900)을 지도 학습 및/또는 비지도 학습시킬 수 있다. 이렇게 학습된 인공신경망 모델(900)은 정보 처리 시스템의 메모리(미도시)에 저장될 수 있으며, 통신 모듈 및/또는 메모리로부터 수신된 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력할 수 있다.
일 실시예에 따르면, 인공신경망 모델(900)의 입력변수는, 의료 영상, 일부 영상 및/또는 연결된 영상이 될 수 있다. 추가적으로 또는 대안적으로, 인공신경망 모델(900)의 입력변수는, 세그멘테이션 정보, 환자 정보, 병변 정보 등의 추가 정보 등을 포함할 수 있다. 즉, 상술된 영상, 추가 정보 등을 나타내거나 특징화하는 벡터가 입력층(920)을 통해 입력될 수 있다. 이와 같이 상술된 입력변수가 입력층(920)을 통해 입력되는 경우, 인공신경망 모델(900)의 출력층(940)에서 출력되는 출력변수는 영상 내에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 나타내거나 특징화하는 벡터가 될 수 있다.
이와 같이, 인공신경망 모델(900)의 입력층(920)과 출력층(940)에 복수의 입력변수와 대응되는 복수의 출력변수가 각각 매칭되고, 입력층(920), 은닉층(930_1 내지 930_n) 및 출력층(940)에 포함된 노드들 사이의 시냅스 값이 조정됨으로써, 특정 입력에 대응한 올바른 출력이 추출될 수 있도록 학습될 수 있다. 이러한 학습 과정을 통해, 인공신경망 모델(900)의 입력변수에 숨겨져 있는 특성을 파악할 수 있고, 입력변수에 기초하여 계산된 출력변수와 목표 출력 간의 오차가 줄어들도록 인공신경망 모델(900)의 노드들 사이의 시냅스 값(또는 가중치)를 조정할 수 있다. 이렇게 학습된 인공신경망 모델(900)을 이용하여, 수신된 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표가 출력될 수 있다.
도 10은 본 개시의 일 실시예에 따른 제1 기계학습 모델(1000)이 적어도 하나의 영상(1010)을 이용하여 바이오마커의 발현 지표(1020)를 출력하는 예시를 나타내는 도면이다. 도시된 바와 같이, 제1 기계학습 모델(1000)은 적어도 하나의 영상(1010)에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1020)를 출력할 수 있다. 여기서, 적어도 하나의 영상(1010)은 의료 영상, 의료 영상 중에서, 적어도 하나의 병변에 대한 영역을 크롭함으로써 생성된 일부 영상 및/또는 크기가 조절된 의료 영상 및 일부 영상을 연결함으로써 생성된 연결된 영상을 포함할 수 있다.
일 실시예에 따르면, 제1 기계학습 모델(1000)은 의료 영상을 수신하고, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1020)를 출력할 수 있다. 예를 들어, 제1 기계학습 모델(1000)은 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 추출된 적어도 하나의 병변에 대한 영역 각각에 대한 바이오마커의 발현 지표를 예측하고 출력할 수 있다. 다른 예에서, 제1 기계학습 모델(1000)은 적어도 하나의 병변에 대한 영역이 추출된 의료 영상을 수신하여, 해당 의료 영상으로부터 적어도 하나의 병변에 대한 영역 각각에 대한 바이오마커의 발현 지표를 예측하고 출력할 수 있다.
다른 실시예에 따르면, 제1 기계학습 모델(1000)은 의료 영상 중에서 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써 생성된 일부 영상을 이용하여 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1020)를 출력할 수 있다. 여기서, 제1 기계학습 모델(1000)은 의료 영상 및 생성된 일부 영상을 이용하여 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1020)를 출력할 수도 있다. 이와 같은 구성에 의해, 제1 기계학습 모델(1000)은 추출된 병변에 대한 영역만을 포함하는 일부 영상을 이용함으로써, 의료 영상에 포함된 병변 이외의 영역에 의한 노이즈(noise) 및/또는 오류를 제거하여 바이오마커의 발현 지표(1020)를 더 정확하게 예측할 수 있다.
또 다른 실시예에 따르면, 제1 기계학습 모델(1000)은 크기가 조절된 의료 영상 및 일부 영상을 연결함으로써 생성된 연결된 영상을 이용하여 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1020)를 출력할 수 있다. 일 실시예에 따르면, 프로세서는 수신된 의료 영상의 크기 및 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하고, 조절된 의료 영상 및 조절된 일부 영상을 연결함으로써, 연결된 영상을 생성할 수 있다. 다시 말해, 프로세서는 제1 기계학습 모델(1000)의 입력으로서 이와 같은 연결된 영상을 수신하고 제1 기계학습 모델(1000)을 통해 바이오마커의 발현 지표(1020)를 출력할 수 있다.
도 11은 본 개시의 일 실시예에 따른 제1 기계학습 모델(1100)이 적어도 하나의 영상(1010) 및 추가 정보(1110)를 이용하여 바이오마커의 발현 지표(1120)를 출력하는 예시를 나타내는 도면이다. 상술된 바와 같이, 프로세서는 제1 기계학습 모델(1100)을 통해 적어도 하나의 영상(1010)에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1120)를 출력할 수 있다. 이 경우, 제1 기계학습 모델(1100)은 적어도 하나의 영상(1010)과 함께 추가 정보(1110)를 이용하여 바이오마커의 발현 지표(1120)를 출력하도록 구성될 수 있다. 여기서, 추가 정보(1110)는 세그멘테이션 정보, 환자 정보 및/또는 병변 정보 등을 포함할 수 있다.
일 실시예에 따르면, 프로세서는 적어도 하나의 병변의 세그멘테이션 정보 및 적어도 하나의 영상(1010)을 제1 기계학습 모델(1100)에 입력하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1120)를 출력할 수 있다. 여기서, 세그멘테이션 정보는 Soft tissue, calcification, cavity, ground glass opacity 등과 같이 병변의 형태와 연관된 임의의 정보를 지칭할 수 있다. 즉, 프로세서는 의료 영상을 기초로, 해당 의료 영상에 포함된 적어도 하나의 병변의 세그멘테이션 정보를 예측하거나 결정할 수 있다. 예를 들어, 프로세서는 의료 영상 내의 적어도 하나의 병변의 세그멘테이션을 예측하도록 학습된 기계학습 모델을 이용하여, 적어도 하나의 병변의 세그멘테이션을 예측할 수 있다. 이와 같이 결정된 세그멘테이션 정보는 바이오마커의 발현 지표(1120)를 예측하기 위해 사용될 수 있다.
추가적으로 또는 대안적으로, 프로세서는 의료 영상과 연관된 환자 정보를 획득하고, 획득된 환자 정보 및 적어도 하나의 영상(1010)을 제1 기계학습 모델(1100)에 입력하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1120)를 출력할 수 있다. 여기서, 환자 정보는 영상과 연관된 환자의 기본 정보, 진단 정보, 이력 정보 등을 포함할 수 있으며, 예를 들어, 환자의 나이, 성별, 흡연력, 기존 병력, 치료 이력 또는 가족 병력 중 적어도 하나에 대한 정보를 포함할 수 있다. 다시 말해, 이와 같이 획득된 환자 정보는 바이오마커의 발현 지표(1120)를 예측하기 위해 사용될 수 있다.
추가적으로 또는 대안적으로, 프로세서는 의료 영상과 연관된 병변 정보를 획득하고, 획득된 병변 정보 및 적어도 하나의 영상(1010)을 제1 기계학습 모델(1100)에 입력하여 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표(1120)를 출력할 수 있다. 여기서, 병변 정보는 병변과 연관된 임의의 정보로서, 예를 들어, 병변의 크기, 병변의 위치, spliculated, lobulated, calcified, cavity, solid, non-solid, par-solid 등과 같이, 병변의 크기, 위치, 형태 등과 연관된 정보를 포함할 수 있다. 다시 말해, 이와 같이 획득된 병변 정보는 바이오마커의 발현 지표(1120)를 예측하기 위해 사용될 수 있다. 이와 같은 구성에 의해, 프로세서는 제1 기계학습 모델(1100)에 적어도 하나의 영상(1010)뿐만 아니라 적어도 하나의 추가 정보(1110)를 더 입력하여 바이오마커의 발현 지표(1120)를 더 정확하게 예측하고 출력할 수 있다.
도 12는 본 개시의 일 실시예에 따른 제2 기계학습 모델(1200)이 복수의 일부 영상(1210)을 이용하여 복수의 일부 영상 각각에 대한 특징(1220)을 출력하는 예시를 나타내는 도면이다. 상술된 바와 같이, 제2 기계학습 모델(1200)은 특징 추출 모델을 지칭할 수 있다. 즉, 제2 기계학습 모델(1200)은 복수의 일부 영상(1210)에 포함된 각각의 병변에 대한 특징을 추출할 수 있다. 여기서, 병변에 대한 특징은 각각의 병변을 나타내거나 특징화할 수 있는 임의의 정보를 지칭할 수 있는데, 예를 들어, 병변의 위치, 크기, 병변의 형태, 병변의 성질, 병변의 종류 등을 포함할 수 있으나, 이에 한정되지 않는다.
일 실시예에 따르면, 의료 영상에 포함된 적어도 하나의 병변은, 의료 영상에 포함된 복수의 병변을 포함할 수 있다. 이 경우, 프로세서는 수신된 의료 영상으로부터 복수의 병변에 대한 영역을 추출하고, 추출된 복수의 병변에 대한 영역을 크롭함으로써, 복수의 일부 영상(1210)을 생성할 수 있다. 이와 같이 생성된 복수의 일부 영상(1210)은 제2 기계학습 모델(1200)의 입력 데이터로서 사용될 수 있다.
일 실시예에 따르면, 제2 기계학습 모델(1200)은 생성된 복수의 일부 영상을 이용하여, 복수의 일부 영상의 각각에 대한 특징(1220)을 출력할 수 있다. 이 경우, 제2 기계학습 모델(1200)은 복수의 일부 영상의 각각에 대한 특징(1220)을 출력하도록 구성될 수 있다. 이와 같이, 출력된 복수의 일부 영상의 각각에 대한 특징(1220)은 복수의 병변의 각각에 대한 바이오마커의 발현 지표를 출력하기 위한 제1 기계학습 모델(도 10의 1000)의 입력 데이터(1010) 또는 제1 기계학습 모델(도 11의 1100)의 추가 정보(1110)로서 사용될 수 있다. 이와 같은 구성에 의해, 제1 기계학습 모델은 의료 영상뿐만 아니라, 복수의 일부 영상 각각에 대한 특징(1220)을 더 활용하여 바이오마커의 발현 지표를 더 정확하게 예측하고 출력할 수 있다.
도 12에서는 제2 기계학습 모델(1200)이 환자의 복수의 일부 영상(1210)을 입력하여 복수의 일부 영상의 각각에 대한 특징(1220)을 출력하도록 도시되어 있으나, 이에 한정되지 않으며, 프로세서는 복수의 일부 영상(1210)을 포함한 하나의 전체 의료 영상을 제2 기계학습 모델(1200)에 입력하여 복수의 일부 영상의 각각에 대한 특징(1220)을 출력하도록 구성될 수 있다. 이 경우, 전체 의료 영상이 수신되기 때문에, 해당 환자의 전체적인 상태가 인코딩될 수 있으며, 이러한 인코딩된 정보는 복수의 일부의 영상(1210)에 대한 특징(1220)을 출력하는데 있어 사용될 수 있다.
도 13은 본 개시의 일 실시예에 따른 제3 기계학습 모델(1300)이 바이오마커 발현 지표(1310)를 이용하여 조직 채취와 연관된 정보(1320)를 출력하는 예시를 나타내는 도면이다. 도시된 바와 같이, 제3 기계학습 모델(1300)은 바이오마커 발현 지표(1310)를 입력받아 조직 채취와 연관된 정보(1320)를 출력할 수 있다. 즉, 프로세서는 바이오마커 발현 지표(1310)를 추출할 수 있을 뿐만 아니라, 추출된 바이오마커 발현 지표(1310)를 이용하여 조직 채취와 연관된 정보(1320)를 예측하고 출력할 수 있다.
일 실시예에 따르면, 바이오마커 발현 지표(1310)는 상술된 바와 같이, 제1 기계학습 모델이 적어도 하나의 영상, 추가 정보 등을 이용하여 출력한, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표일 수 있다. 추가적으로 또는 대안적으로, 바이오마커 발현 지표(1310)는 사용자에 의해 입력되거나 임의의 외부 시스템으로부터 수신될 수 있다.
일 실시예에 따르면, 제3 기계학습 모델(1300)은 조직 채취와 연관된 정보(1320)를 출력하여 사용자에게 제공할 수 있다. 조직 채취와 연관된 정보(1320)는 사용자가 의료 영상에 포함된 병변에 대해 조직 채취를 수행하는데 필요한 임의의 정보로서, 조직 채취 방법, 조직 채취 위치, 조직 채취의 우선순위에 대한 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 이와 같은 구성에 의해, 사용자는 출력된 조직 채취와 연관된 정보(1320)를 이용하여 환자의 병변 중 어떤 병변에서 조직 채취를 수행할지 효율적으로 판단할 수 있다.
도 14는 본 개시의 일 실시예에 따른 제3 기계학습 모델(1400)이 바이오마커 발현 지표(1310) 및 조직 채취에 대한 기준 정보(1410)를 이용하여 조직 채취의 우선순위에 대한 정보(1420)를 출력하는 예시를 나타내는 도면이다. 도시된 바와 같이, 제3 기계학습 모델(1400)은 바이오마커 발현 지표(1310) 및 조직 채취에 대한 기준 정보(1410)를 입력받아 조직 채취의 우선순위에 대한 정보(1420)를 출력할 수 있다. 여기서, 조직 채취에 대한 기준 정보(1410)는 환자의 기저 병력, 시술의 위험성, 병변의 접근 용이성, 병변의 경피적 접근 용이성, 조직 채취 시의 예상 피해 정도 및/또는 병변의 크기 등에 대한 정보를 포함할 수 있다. 예를 들어, 조직 채취에 대한 기준 정보(1410)는 병변 주위에 대혈관 및 주요 장기가 위치해 있는지 여부, 병변의 크기가 샘플 채취가 가능한 크기인지 여부, 병변의 크기가 1cm 이상인지 여부 등을 포함할 수 있다.
일 실시예에 따르면, 의료 영상에 포함된 적어도 하나의 병변은, 의료 영상에 포함된 복수의 병변을 포함할 수 있으며, 이 경우, 제3 기계학습 모델(1400)은 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보(1420)를 출력할 수 있다. 여기서, 조직 채취의 우선순위에 대한 정보(1420)는 복수의 병변 중 우선적으로 조직 채취를 수행할 각 병변의 순서, 순위 등에 대한 정보를 포함할 수 있다. 이와 같은 구성에 의해, 사용자는 의료 영상에 포함된 병변 중 어떤 병변을 우선적으로 검사하는 것이 환자의 치료에 도움이 되는지를 간단히 판단할 수 있다.
도 15는 본 개시의 일 실시예에 따른 바이오마커 발현에 대한 예측 작업과 연관된 임의의 컴퓨팅 장치(1500)의 구성도이다. 예를 들어, 컴퓨팅 장치(1500)는 정보 처리 시스템(120) 및/또는 사용자 단말(130)을 포함할 수 있다. 도시된 바와 같이, 컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1530), 통신 인터페이스(1540), 프로세서(1510)에 의해 수행되는 컴퓨터 프로그램(1560)을 로드(load)하는 메모리(1520) 및 컴퓨터 프로그램(1560)을 저장하는 저장 모듈(1550)을 포함할 수 있다. 다만, 도 15에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 15에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.
메모리(1520)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(1520)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위하여 저장 모듈(1550)로부터 하나 이상의 컴퓨터 프로그램(1560)을 로드할 수 있다. 메모리(1520)는 RAM과 같은 휘발성 메모리로 구현될 수 있으나, 본 개시의 기술적 범위는 이에 한정되지 아니한다.
버스(1530)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공할 수 있다. 버스(1530)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(1540)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원할 수 있다. 또한, 통신 인터페이스(1540)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1540)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.
저장 모듈(1550)은 하나 이상의 컴퓨터 프로그램(1560)을 비임시적으로 저장할 수 있다. 저장 모듈(1550)은 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(1560)은 메모리(1520)에 로드될 때 프로세서(1510)로 하여금 본 개시의 다양한 실시예들에 따른 동작/방법을 수행하도록 하는 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 즉, 프로세서(1510)는 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예들에 따른 동작/방법들을 수행할 수 있다.
예를 들어, 컴퓨터 프로그램(1560)은 의료 영상을 수신하고, 제1 기계학습 모델을 이용하여, 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하기 위한 인스트럭션들을 포함할 수 있다. 이 경우, 컴퓨터 프로그램(1560)은 수신된 의료 영상으로부터 적어도 하나의 병변에 대한 영역을 추출하고, 의료 영상 중에서, 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성하기 위한 인스트럭션들을 포함할 수 있다. 또한, 컴퓨터 프로그램(1560)은 일부 영상을 제1 기계학습 모델에 입력하여, 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하기 위한 인스트럭션들을 포함할 수 있다. 또한, 컴퓨터 프로그램(1560)은 출력된 바이오마커의 발현 지표를 포함한 의료 영상을 생성하고, 생성된 영상을 디스플레이 장치에 출력하거나 표시하기 위한 인스트럭션을 포함할 수 있다.
본 개시의 앞선 설명은 통상의 기술자들이 본 개시를 행하거나 이용하는 것을 가능하게 하기 위해 제공된다. 본 개시의 다양한 수정예들이 통상의 기술자들에게 쉽게 자명할 것이고, 본원에 정의된 일반적인 원리들은 본 개시의 취지 또는 범위를 벗어나지 않으면서 다양한 변형예들에 적용될 수도 있다. 따라서, 본 개시는 본원에 설명된 예들에 제한되도록 의도된 것이 아니고, 본원에 개시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위가 부여되도록 의도된다.
비록 예시적인 구현예들이 하나 이상의 독립형 컴퓨터 시스템의 맥락에서 현재 개시된 주제의 양태들을 활용하는 것을 언급할 수도 있으나, 본 주제는 그렇게 제한되지 않고, 오히려 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 현재 개시된 주제의 양상들은 복수의 프로세싱 칩들이나 디바이스들에서 또는 그들에 걸쳐 구현될 수도 있고, 스토리지는 복수의 디바이스들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 디바이스들은 PC들, 네트워크 서버들, 및 핸드헬드 디바이스들을 포함할 수도 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에서 첨부된 특허 청구의 범위 내에 속하는 것으로 생각되어야 한다.
110: 바이오마커의 발현 지표
120: 정보 처리 시스템
130: 사용자

Claims (30)

  1. 적어도 하나의 프로세서에 의해 실행되는, 의료 영상으로부터 바이오마커 발현을 예측하는 방법에 있어서,
    환자의 신체의 적어도 일부를 촬영한 의료 영상을 수신하는 단계; 및
    제1 기계학습 모델을 이용하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계
    를 포함하고,
    상기 바이오마커의 발현 지표는, 상기 적어도 하나의 병변으로부터 채취된 조직 내에서의 단백질, DNA, RNA 및 대사 물질 중 적어도 하나의 발현 정도 또는 발현 가능성을 수치로 나타낸 것인,
    바이오마커 발현을 예측하는 방법.
  2. 제1항에 있어서,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 수신된 의료 영상으로부터 상기 적어도 하나의 병변에 대한 영역을 추출하는 단계; 및
    상기 의료 영상 중에서, 상기 추출된 적어도 하나의 병변에 대한 영역을 크롭(crop)함으로써, 일부 영상을 생성하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  3. 제2항에 있어서,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 더 포함하는,
    바이오마커 발현을 예측하는 방법.
  4. 제2항에 있어서,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 수신된 의료 영상 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 더 포함하는,
    바이오마커 발현을 예측하는 방법.
  5. 제4항에 있어서,
    상기 수신된 의료 영상 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계는,
    상기 수신된 의료 영상의 크기 및 상기 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하는 단계;
    상기 조절된 의료 영상 및 상기 조절된 일부 영상을 연결함으로써, 연결된 영상을 생성하는 단계; 및
    상기 연결된 영상을 상기 제1 기계학습 모델에 입력하여 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는, 바이오마커 발현을 예측하는 방법.
  6. 제2항에 있어서,
    상기 의료 영상에 포함된 적어도 하나의 병변의 세그멘테이션 정보를 결정하는 단계를 더 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는, 상기 결정된 적어도 하나의 병변의 세그멘테이션 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는, 바이오마커 발현을 예측하는 방법.
  7. 제2항에 있어서,
    상기 의료 영상과 연관된 환자 정보를 획득하는 단계 - 상기 환자 정보는 환자의 나이, 성별, 기존 병력, 치료 이력 또는 가족 병력 중 적어도 하나에 대한 정보를 포함함 -
    를 더 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는, 상기 획득된 환자 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  8. 제2항에 있어서,
    상기 적어도 하나의 병변을 나타내는 병변 정보를 획득하는 단계
    를 더 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 획득된 병변 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  9. 제2항에 있어서,
    상기 의료 영상 내의 상기 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 획득하는 단계를 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 획득된 상이한 병변의 바이오마커의 발현 지표 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  10. 제1항에 있어서,
    상기 의료 영상을 수신하는 단계는, 제1 의료 영상과 상기 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 수신하는 단계를 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 제1 의료 영상 및 상기 제2 의료 영상의 각각으로부터 상기 적어도 하나의 병변에 대한 영역을 추출하는 단계; 및
    상기 제1 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역과 상기 제2 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  11. 제1항에 있어서,
    상기 의료 영상에 포함된 적어도 하나의 병변은, 상기 의료 영상에 포함된 복수의 병변을 포함하고,
    상기 바이오마커의 발현 지표를 출력하는 단계는,
    상기 수신된 의료 영상으로부터 복수의 병변에 대한 영역을 추출하는 단계;
    상기 추출된 복수의 병변에 대한 영역을 크롭함으로써, 복수의 일부 영상을 생성하는 단계;
    상기 생성된 복수의 일부 영상을 제2 기계학습 모델에 입력하여, 상기 복수의 일부 영상의 각각에 대한 특징을 출력하는 단계; 및
    상기 출력된 복수의 일부 영상의 각각에 대한 특징을 상기 제1 기계학습 모델에 입력하여, 상기 복수의 병변의 각각에 대한 바이오마커의 발현 지표를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  12. 제1항에 있어서,
    상기 출력된 바이오마커의 발현 지표를 제3 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하는 단계를 더 포함하는,
    바이오마커 발현을 예측하는 방법.
  13. 제12항에 있어서,
    상기 의료 영상에 포함된 적어도 하나의 병변은, 상기 의료 영상에 포함된 복수의 병변을 포함하고,
    상기 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하는 단계는, 상기 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  14. 제13항에 있어서,
    상기 의료 영상과 연관된 조직 채취에 대한 기준 정보를 획득하는 단계를 더 포함하고,
    상기 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계는,
    상기 출력된 바이오마커의 발현 지표 및 상기 획득된 조직 채취에 대한 기준 정보를 제3 기계학습 모델에 입력하여, 상기 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하는 단계를 포함하는,
    바이오마커 발현을 예측하는 방법.
  15. 정보 처리 시스템에 있어서,
    하나 이상의 인스트럭션(instructions)을 저장하는 메모리; 및
    상기 저장된 하나 이상의 인스트럭션을 실행함으로써,
    환자의 신체의 적어도 일부를 촬영한 의료 영상을 수신하고, 제1 기계학습 모델을 이용하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 구성된 프로세서를 포함하고,
    상기 바이오마커의 발현 지표는, 상기 적어도 하나의 병변으로부터 채취된 조직 내에서의 단백질, DNA, RNA 및 대사 물질 중 적어도 하나의 발현 정도 또는 발현 가능성을 수치로 나타낸 것인,
    정보 처리 시스템.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 수신된 의료 영상으로부터 상기 적어도 하나의 병변에 대한 영역을 추출하고, 상기 의료 영상 중에서, 상기 추출된 적어도 하나의 병변에 대한 영역을 크롭함으로써, 일부 영상을 생성하도록 더 구성된,
    정보 처리 시스템.
  17. 제16항에 있어서,
    상기 프로세서는,
    상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  18. 제16항에 있어서,
    상기 프로세서는,
    상기 수신된 의료 영상 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 수신된 의료 영상의 크기 및 상기 생성된 일부 영상의 크기를 미리 결정된 크기로 조절하고,
    상기 조절된 의료 영상 및 상기 조절된 일부 영상을 연결함으로써, 연결된 영상을 생성하고,
    상기 연결된 영상을 상기 제1 기계학습 모델에 입력하여 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  20. 제16항에 있어서,
    상기 프로세서는,
    의료 영상에 포함된 적어도 하나의 병변의 세그멘테이션 정보를 결정하고,
    상기 결정된 적어도 하나의 병변의 세그멘테이션 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  21. 제16항에 있어서,
    상기 프로세서는,
    상기 의료 영상과 연관된 환자 정보를 획득하고 - 상기 환자 정보는 환자의 나이, 성별, 기존 병력, 치료 이력 또는 가족 병력 중 적어도 하나에 대한 정보를 포함함 -,
    상기 획득된 환자 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  22. 제16항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 병변을 나타내는 병변 정보를 획득하고,
    상기 획득된 병변 정보 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  23. 제16항에 있어서,
    상기 프로세서는,
    상기 의료 영상 내의 상기 적어도 하나의 병변과 상이한 병변의 바이오마커의 발현 지표를 획득하고,
    상기 획득된 상이한 병변의 바이오마커의 발현 지표 및 상기 생성된 일부 영상을 상기 제1 기계학습 모델에 입력하여, 상기 의료 영상에 포함된 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  24. 제15항에 있어서,
    상기 프로세서는,
    제1 의료 영상과 상기 제1 의료 영상과 상이한 시점에 촬영된 제2 의료 영상을 수신하고,
    상기 제1 의료 영상 및 상기 제2 의료 영상의 각각으로부터 상기 적어도 하나의 병변에 대한 영역을 추출하고,
    상기 제1 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역과 상기 제2 의료 영상으로부터 추출된 적어도 하나의 병변에 대한 영역을 상기 제1 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  25. 제15항에 있어서,
    상기 의료 영상에 포함된 적어도 하나의 병변은, 상기 의료 영상에 포함된 복수의 병변을 포함하고,
    상기 프로세서는,
    상기 수신된 의료 영상으로부터 복수의 병변에 대한 영역을 추출하고,
    상기 추출된 복수의 병변에 대한 영역을 크롭함으로써, 복수의 일부 영상을 생성하고,
    상기 생성된 복수의 일부 영상을 제2 기계학습 모델에 입력하여, 상기 복수의 일부 영상의 각각에 대한 특징을 출력하고,
    상기 출력된 복수의 일부 영상의 각각에 대한 특징을 상기 제1 기계학습 모델에 입력하여, 상기 복수의 병변의 각각에 대한 바이오마커의 발현 지표를 출력하도록 더 구성된,
    정보 처리 시스템.
  26. 제15항에 있어서,
    상기 프로세서는,
    상기 출력된 바이오마커의 발현 지표를 제3 기계학습 모델에 입력하여, 상기 적어도 하나의 병변에 대한 조직 채취와 연관된 정보를 출력하도록 더 구성된,
    정보 처리 시스템.
  27. 제26항에 있어서,
    상기 의료 영상에 포함된 적어도 하나의 병변은, 상기 의료 영상에 포함된 복수의 병변을 포함하고,
    상기 프로세서는,
    상기 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하도록 더 구성된,
    정보 처리 시스템.
  28. 제27항에 있어서,
    상기 프로세서는,
    상기 의료 영상과 연관된 조직 채취에 대한 기준 정보를 획득하고,
    상기 출력된 바이오마커의 발현 지표 및 상기 획득된 조직 채취에 대한 기준 정보를 제3 기계학습 모델에 입력하여, 상기 복수의 병변에 대한 조직 채취의 우선순위에 대한 정보를 출력하도록 더 구성된,
    정보 처리 시스템.
  29. 제1항에 있어서,
    학습 의료 영상 및 실제 조직 채취를 통해 확인된 상기 학습 의료 영상과 연관된 바이오마커의 발현 지표의 실측 값을 이용하여, 상기 제1 기계학습 모델을 학습하는 단계를 더 포함하는,
    바이오마커 발현을 예측하는 방법.
  30. 제15항에 있어서,
    상기 프로세서는,
    학습 의료 영상 및 실제 조직 채취를 통해 확인된 상기 학습 의료 영상과 연관된 바이오마커의 발현 지표의 실측 값을 이용하여, 상기 제1 기계학습 모델을 학습하도록 더 구성된,
    정보 처리 시스템.
KR1020210029223A 2020-03-06 2021-03-05 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템 KR102561175B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230096687A KR20230118054A (ko) 2020-03-06 2023-07-25 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200028686 2020-03-06
KR20200028686 2020-03-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230096687A Division KR20230118054A (ko) 2020-03-06 2023-07-25 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템

Publications (2)

Publication Number Publication Date
KR20210113084A KR20210113084A (ko) 2021-09-15
KR102561175B1 true KR102561175B1 (ko) 2023-07-28

Family

ID=77614138

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210029223A KR102561175B1 (ko) 2020-03-06 2021-03-05 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템
KR1020230096687A KR20230118054A (ko) 2020-03-06 2023-07-25 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230096687A KR20230118054A (ko) 2020-03-06 2023-07-25 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템

Country Status (4)

Country Link
US (1) US20220036558A1 (ko)
EP (1) EP4116992A4 (ko)
KR (2) KR102561175B1 (ko)
WO (1) WO2021177771A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294191B (zh) * 2022-10-08 2022-12-27 武汉楚精灵医疗科技有限公司 基于电子内镜的标志物尺寸测量方法、装置、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531155A (ja) * 2007-03-19 2010-09-24 ユニバーシティー オブ サセックス 医療画像データを分析するための方法、装置およびコンピュータプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783094B2 (en) * 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
KR20150002284A (ko) 2013-06-28 2015-01-07 삼성전자주식회사 병변 검출 장치 및 방법
KR101623431B1 (ko) * 2015-08-06 2016-05-23 주식회사 루닛 의료 영상의 병리 진단 분류 장치 및 이를 이용한 병리 진단 시스템
KR101880678B1 (ko) * 2016-10-12 2018-07-20 (주)헬스허브 기계학습을 통한 의료영상 판독 및 진단 통합 시스템
KR20190046471A (ko) * 2017-10-26 2019-05-07 삼성전자주식회사 의료 영상 처리 방법 및 그에 따른 의료 영상 처리 장치
US11551353B2 (en) * 2017-11-22 2023-01-10 Arterys Inc. Content based image retrieval for lesion analysis
KR20190113351A (ko) * 2018-03-28 2019-10-08 (주)아이레이더 머신러닝 알고리즘을 이용한 의료영상 분석장치
US10957041B2 (en) * 2018-05-14 2021-03-23 Tempus Labs, Inc. Determining biomarkers from histopathology slide images
US11705226B2 (en) * 2019-09-19 2023-07-18 Tempus Labs, Inc. Data based cancer research and treatment systems and methods
BR112022003451A2 (pt) * 2019-09-09 2022-05-24 Paige Ai Inc Sistemas e métodos para processamento de imagens de lâminas para inferir biomarcadores
CN110796672A (zh) * 2019-11-04 2020-02-14 哈尔滨理工大学 基于层次卷积神经网络的乳腺癌mri分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531155A (ja) * 2007-03-19 2010-09-24 ユニバーシティー オブ サセックス 医療画像データを分析するための方法、装置およびコンピュータプログラム

Also Published As

Publication number Publication date
KR20230118054A (ko) 2023-08-10
WO2021177771A1 (ko) 2021-09-10
US20220036558A1 (en) 2022-02-03
EP4116992A4 (en) 2024-04-10
KR20210113084A (ko) 2021-09-15
EP4116992A1 (en) 2023-01-11

Similar Documents

Publication Publication Date Title
CN111986784B (zh) 医疗影像的元数据预测装置及方法
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
CN108784655A (zh) 针对医疗患者的快速评估和后果分析
KR102289277B1 (ko) 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법
KR102270934B1 (ko) 의료용 인공 신경망 기반 대표 영상을 제공하는 의료 영상 판독 지원 장치 및 방법
KR20230118054A (ko) 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템
CN113706559A (zh) 基于医学图像的血管分段提取方法和装置
CN112183572A (zh) 一种生成预测肺炎严重程度的预测模型的方法及装置
CN112750519A (zh) 医学图像数据的匿名化
US20210125332A1 (en) Diagnosis assisting system, diagnosis assisting method and diagnosis assisting program
US20220157467A1 (en) System and method for predicting wellness metrics
CN110827255A (zh) 一种基于冠状动脉ct图像的斑块稳定性预测方法及系统
CN116309346A (zh) 医学图像的检测方法、装置、设备、存储介质及程序产品
KR20190068254A (ko) 병변 발생 시점 추정 방법, 장치 및 프로그램
KR20210029167A (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
Li et al. Structure regularized attentive network for automatic femoral head necrosis diagnosis and localization
KR20210054140A (ko) 내시경 영상에 대한 복수의 의료 영상 판독 알고리듬들을 이용하는 의료 영상 판독 지원 장치 및 방법
TWI837702B (zh) 為老齡化黃斑部病變建議回診時間的電子裝置及方法
CN110706803A (zh) 一种确定心肌纤维化的方法、装置、可读介质及电子设备
US20230397794A1 (en) Analysis of in-vivo images using connected graph components
JP7361930B2 (ja) 医用画像処理装置、方法およびプログラム
KR102213924B1 (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
CN117059263B (zh) 基于双视图胸片的肺动脉高压发生概率的确定方法及系统
US20220230367A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant