JP2022002073A - 脳組織病変分布予測方法、その装置及びそのコンピュータプログラム - Google Patents

脳組織病変分布予測方法、その装置及びそのコンピュータプログラム Download PDF

Info

Publication number
JP2022002073A
JP2022002073A JP2020189885A JP2020189885A JP2022002073A JP 2022002073 A JP2022002073 A JP 2022002073A JP 2020189885 A JP2020189885 A JP 2020189885A JP 2020189885 A JP2020189885 A JP 2020189885A JP 2022002073 A JP2022002073 A JP 2022002073A
Authority
JP
Japan
Prior art keywords
data
treatment
brain
prediction model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020189885A
Other languages
English (en)
Other versions
JP7132309B2 (ja
Inventor
ヨン パン、オ
Oh Young Bang
キム、ユン−チョル
Yoon-Chul Kim
チョン、ジョン−ウォン
Jong-Won Chung
ソ、ウ−グン
Woo-Keun Seo
キム、ギョン−ムン
Gyeong-Moon Kim
キム、ゴン−ハ
Geon Ha Kim
チョン、ピョン
Pyoung Jeon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Life Public Welfare Foundation
Original Assignee
Samsung Life Public Welfare Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Life Public Welfare Foundation filed Critical Samsung Life Public Welfare Foundation
Publication of JP2022002073A publication Critical patent/JP2022002073A/ja
Application granted granted Critical
Publication of JP7132309B2 publication Critical patent/JP7132309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0263Measuring blood flow using NMR
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4806Functional imaging of brain activation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/5635Angiography, e.g. contrast-enhanced angiography [CE-MRA] or time-of-flight angiography [TOF-MRA]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56366Perfusion imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Fuzzy Systems (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Neurosurgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

【課題】脳組織病変分布予測方法、その装置及びそのコンピュータプログラムを提供する。【解決手段】複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させるモデル学習段階と、対象者の脳映像データから入力データを獲得する入力獲得段階と、入力データを、予測モデルに入力する入力段階と、予測モデルを利用し、対象者に対する再開通治療後の病変分布に係わる情報を含む出力映像データを生成する出力段階と、を含み、該予測モデルは、複数の既患者のうち、再開通治療に成功した患者の脳映像データを利用して学習される成功予測モデル、及び複数の既患者のうち、再開通治療に失敗した患者の脳映像データを利用して学習される失敗予測モデルを含む脳組織病変分布予測方法である。【選択図】図5

Description

本発明は、脳梗塞患者の脳組織病変の分布を予測する方法、その装置及びそのコンピュータプログラムに関する。
脳梗塞は、脳の血管が詰まり、脳の一部細胞が死滅する疾病である。脳梗塞は、脳血管の動脈硬化のような血管疾患または心房細動(atrial fibrillation)などにより、心臓で発生した血栓(cardioembolic clot)が脳に移動して脳血管が詰まって発生する。脳血管が詰まりながら、脳組織に送られる血液の供給が遮断されて詰まった血管によって血液を供給された脳組織に貫流(perfusion)障害が生じ、該部位は、経時的に梗塞され、意識障害や身体マヒのような神経学的症状が示される。
脳梗塞が発病した場合、詰まった血管を早期に再開通させ、脳組織が完全に梗塞に陥る前に脳血流を回復させる方式の治療がなされる。貫流障害が発生した部位に再開通(recanalization)を行うか否かということが、予後に最大の影響を及ぼす要素である。しかしながら、全ての脳梗塞患者において貫流障害が観察されるものではなく、貫流障害の程度と位置とにより、再開通後、脳梗塞患者の予後に違いが出る。脳梗塞後、再開通を行う場合、脳卒中後、予後を好転させるが(非特許文献1)、再開通時の好転いかんは、PWI(perfusion weighted image)病変及びDWI(diffusion weighted image)病変のパターンによって違いがあると知られている(非特許文献2)。すなわち、貫流強調映像(PWI)において、広範囲な貫流障害を示す一方、拡散強調映像(DWI)において、小さい脳梗塞が観察されるとき、再開通に対する治療効果が大きく、そのような脳梗塞が起きていない貫流障害部位、すなわち、辺縁部位(penumbra zone)の体積を測定し、治療効果を予測する試みがあった。実際、そのような辺縁部位は、再開通治療の標的になる映像所見である。
しかしながら、これまで、分析方法は、単純な映像分析を介した主観的な分析法であるか、あるいは手動分析により、寸時を争う急性期脳卒中患者の診療環境においては、活用度が低いという限界を有している。従って、迅速であって容易でありながらも、病変部位の特性(位置や侵犯程度)を、同時に客観的に測定して提示することができる新たな技法の開発が必要である。
Chen et al., Stroke 2017; 48: 2739−45 Lansberg et al., Lancet Neurol 2012; 11: 860−7
本発明が解決しようとする課題は、脳梗塞患者に対し、再開通治療の成功時及び失敗時の脳組織損傷度を、機械学習モデルを利用して予測及び映像化することにより、最終脳組織損傷分布を比較予測し、それに基づいた治療方針を選択することができる予後予測装置、その方法及びそのコンピュータプログラムを提供することである。
本発明の一実施形態による脳組織病変分布予測方法は、複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させるモデル学習段階と、前記対象者の脳映像データから入力データを獲得する入力獲得段階と、前記入力データを、前記予測モデルに入力する入力段階と、前記予測モデルを利用し、前記対象者に対する再開通治療後の前記病変分布に係わる情報を含む出力映像データを生成する出力段階と、を含み、前記予測モデルは、複数の既患者のうち、再開通治療に成功した患者らの脳映像データを利用して学習される成功予測モデル、及び前記複数の既患者のうち、再開通治療に失敗した患者らの脳映像データを利用して学習される失敗予測モデルを含む。
前記モデル学習段階は、複数の既患者それぞれの互いに異なる種類の脳映像データを整合する映像整合段階と、前記脳映像データから変形データを計算し、前記病変部位に対応する関心領域を選択する段階と、前記関心領域に対し、ボクセル別に病変該当いかんにより、既設定の値にラベリングする段階と、前記関心領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得する学習用入力獲得段階と、を含んでもよい。
前記映像整合段階で整合される脳映像データは、治療前に獲得された第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データ、及び治療後に獲得された第2拡散強調映像(DWI)データを含んでもよい。
前記計算して選択する段階は、前記第1拡散強調映像(DWI)データから、見掛け拡散係数(ADC:apparent diffusion coefficient)を計算する段階と、前記治療前の貫流強調映像(PWI)データから、rTTP(relative time to peak)を計算し、rTTPマップを獲得する段階と、前記第1拡散強調映像(DWI)データ、前記治療前の貫流強調映像(PWI)データ及び前記第2拡散強調映像(DWI)データから、関心領域を選択する段階と、を含んでもよい。
前記モデル学習段階は、前記脳映像データから、正常部位に対応する対称領域を選択する段階と、前記対称領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得する段階と、をさらに含み、前記対称領域は、第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データについても選択される。
前記出力段階は、前記入力データを、前記失敗予測モデルに入力し、前記対象者に対する再開通治療失敗後の病変分布に係わる情報を含む第1出力映像データを生成する第1出力段階と、前記入力データを、前記成功予測モデルに入力し、前記対象者に対する再開通治療成功後の病変分布に係わる情報を含む第2出力映像データを生成する第2出力段階と、を含んでもよい。
前記出力段階は、前記第1出力映像データ及び前記第2出力映像データを比較し、再開通治療いかんを決定する段階をさらに含んでもよい。
本発明の一実施形態による対象者の治療後の脳組織病変分布を予測する装置において、前記装置は、制御部及び出力部を含み、前記制御部は、複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させて、期対象者の脳映像データから入力データを獲得し、前記入力データを、前記予測モデルに入力し、前記出力部は、前記予測モデルを利用し、前記対象者に対する再開通治療後の前記病変分布に係わる情報を含む出力映像データを生成し、前記予測モデルは、複数の既患者のうち、再開通治療に成功した患者らの脳映像データを利用して学習される成功予測モデル、及び前記複数の既患者のうち、再開通治療に失敗した患者らの脳映像データを利用して学習される失敗予測モデルを含む。
前記制御部は、複数の既患者それぞれの互いに異なる種類の脳映像データを整合し、前記脳映像データから変形データを計算し、前記病変部位に対応する関心領域を選択し、前記関心領域に対し、ボクセル別に病変該当いかんにより、既設定の値にラベリングし、前記関心領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得することができる。
整合される前記脳映像データは、治療前に獲得された第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データ、及び治療後に獲得された第2拡散強調映像(DWI)データを含んでもよい。
前記制御部は、前記第1拡散強調映像(DWI)データから、見掛け拡散係数(ADC)を計算し、前記治療前の貫流強調映像(PWI)データから、rTTPを計算し、rTTPマップを獲得し、前記第1拡散強調映像(DWI)データ、前記治療前の貫流強調映像(PWI)データ及び前記第2拡散強調映像(DWI)データから、関心領域を選択することができる。
前記制御部は、前記脳映像データから、正常部位に対応する対称領域を選択し、前記対称領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得し、前記対称領域は、第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データについても選択される。
前記出力部は、前記失敗予測モデルに入力された前記入力データに基づき、前記対象者に対する再開通治療失敗後の病変分布に係わる情報を含む第1出力映像データを生成し、前記成功予測モデルに入力された前記入力データに基づき、前記対象者に対する再開通治療成功後の病変分布に係わる情報を含む第2出力映像データを生成することができる。
前記出力部は、前記第1出力映像データ及び前記第2出力映像データを比較し、前記対象者に対する再開通治療いかんを決定することができる。
前述の本開示の病変分布予測方法は、コンピュータを利用して実行されるように、コンピュータプログラムとして媒体にも保存される。
[発明の効果]
本発明の実施形態によれば、治療前後の脳映像データを基に、成功予測モデル及び失敗予測モデルを別個に学習させ、2つの予測モデルを利用し、対象者の治療前データから、治療に成功したり失敗したりした場合、病変分布及びその容量を比較予測することにより、治療方針を決定する基準を提供することができる。
それにより、対象者に対する脳梗塞治療の成功率及び安全性を高めることができる。
また、実際治療成功/失敗事例データで学習された予測モデルを介し、映像データだけでも、正確であって直観的な病変分布及びその容量に係わる予測情報を提供することができる。対象者(患者)または保護者に、治療方針決定について視覚的な情報/根拠を介して診断することができるという利点がある。
本発明の一実施形態による病変分布予測装置の構成を概略的に図示したブロック図である。 本発明の一実施形態による制御部の構成を図示したブロック図である。 本発明の一実施形態による病変分布予測方法を示したフローチャートである。 本発明の一実施形態による病変分布予測方法の一段階をさらに具体的に示したフローチャートである。 本発明の一実施形態による病変分布予測方法の入出力段階について説明するための概念図である。 本発明の一実施形態によるrTTPマップを生成する方法について説明するための概念図である。 本発明の一実施形態によるデータ前処理段階について説明するための概念図である。 本発明の一実施形態による予測モデルを利用した複数の対象者の病変分布予測結果について説明するための図面である。 本発明の一実施形態による病変分布予測方法の統計的有意性について説明するためのグラフである。 本発明の一実施形態による、成功予測モデル及び失敗予測モデルの予測特性について説明するためのグラフである。 本発明の一実施形態による病変分布予測方法による臨床的予後スコア結果分布について説明するための図面である。
本発明は、多様な変換を加えることができ、さまざまな実施形態を有することができるが、特定実施形態を図面に例示し、詳細な説明によって詳細に説明する。本発明の効果、特徴、及びそれらを達成する方法は、図面と共に詳細に後述されている実施形態を参照すれば、明確になるであろう。しかし、本発明は、以下で開示される実施形態に限定されるものではなく、多様な形態にも具現される。
本開示の一部実施形態は、機能的なブロック構成、及び多様な処理段階によっても示される。そのような機能ブロックの一部または全部は、特定機能を遂行する多様な個数のハードウェア構成及び/またはソフトウェア構成によっても具現される。例えば、本開示の機能ブロックは、1以上のマイクロプロセッサによって具現されるか、あるいは所定機能のための回路構成によっても具現される。また、例えば、本開示の機能ブロックは、多様なプログラミング言語またはスクリプティング言語によっても具現される。該機能ブロックは、1以上のプロセッサで実行されるアルゴリズムによってお具現される。また、本開示は、電子的な環境設定、信号処理及び/またはデータ処理などのために、従来技術を採用することができる。「メカニズム」、「要素」、「手段」及び「構成」のような用語は、汎用され、機械的であって物理的な構成として限定されるものではない。
また、図面に図示された構成要素間の連結線または連結部材は、機能的な連結、及び/または物理的または回路的な連結を例示的に示したものであるのみである。実際装置においては、代替可能であったり追加されたりする多様な機能的連結、物理的連結または回路的連結により、構成要素間の連結が示されうる。
以下の実施形態において、第1、第2のような用語は、限定的な意味ではなく、1つの構成要素を他の構成要素と区別する目的に使用された。以下の実施形態において、単数の表現は、文脈上明白に異なって意味しない限り、複数の表現を含む。以下の実施形態において、「含む」または「有する」というような用語は、明細書上に記載された特徴または構成要素が存在するということを意味するものであり、1以上の他の特徴または構成要素が付加される可能性をあらかじめ排除するものではない。
ある実施形態が異なって具現可能である場合、特定段階は、説明される順序と異なるようにも遂行される。例えば、連続して説明される2つの段階は、実質的に同時にお遂行され、説明される順序と反対の順序にも遂行される。
本明細書において用語「脳映像」は、直間接的な方法を介し、脳の内部構造及び/または機能を視覚化させた映像を意味し、磁気共鳴映像(MRI:magnetic resonance image)、電算化断層撮影(CT:computed tomography)映像、陽電子断層撮影(PET:positron emission tomography)映像、単一光子断層撮影(SPECT:single photon emission computed tomography)映像などを含んでもよい。本明細書において用語「磁気共鳴映像(MRI)」は、磁場を使用し、体内構造物の映像または写真を生成する診断技術、及びそれを介して得られた映像を意味する。
本明細書において「拡散強調映像(DWI)」とは、組織内水陽子の不規則な運動、すなわち、拡散速度を測定する技法を介して得られた映像データであり、一般的に、脳血管閉塞による脳梗塞または病変(lesion)を早期に測定することができる映像処理方式である。そのような信号変化の検出を介し、脳組織損傷部位、損傷体積のような多様な虚血性脳組織損傷を映像化することができる。このとき、拡散速度は、傾斜磁場の強度を示すb値(b−value)によって定められる。
本明細書において「貫流強調映像(PWI)」とは、造影剤の初回通過間、1〜2秒の時間解像度で、1〜2分間連続して脳映像のさまざまなフレームを得る技法で獲得された映像を意味する。該貫流強調映像は、主に、信号低減方法を利用した血流映像である躍動的磁化率造影映像(DSC:dynamic susceptibility contrast)技法が使われる。該DSC映像は、造影剤が周辺の磁化率の差を大きくし、T2、T2*を変化させるので、T2,T2*強調映像として得る方式である。脳血管が詰まり、虚血がある脳組織の場合、造影剤が組織に供給が良好になされず、初回通過時、正常脳組織よりMRI映像が明るく、磁気共鳴映像信号が最小化される時点が、正常脳組織より遅延される特性がある。
本明細書において用語「ボクセル(voxel)」は、三次元空間の正規格子単位を意味し、二次元平面の映像においては、ピクセル(pixel)を意味する。
以下、添付された図面を参照し、本発明の実施形態について詳細に説明するが、図面を参照して説明するとき、同一であるか、あるいは対応する構成要素は、同一図面符号を付し、それに係わる重複説明は、省略する。
図1は、本発明の一実施形態による病変分布予測装置10の構成を概略的に図示したブロック図であり、図2は、本発明の一実施形態による制御部の構成を図示したブロック図である。
本開示の病変分布予測装置10(以下、「予測装置10」ともする)は、対象者の治療前脳映像データを受信されてそれを加工し、対象者の脳組織病変治療後の分布を予測して出力する装置である。このとき、予測装置10は、予測モデルを利用し、前述の出力段階を遂行することもできる。
予測装置10は、制御部100及び出力部200を含んでもよい。予測装置10は、図1に図示された構成要素以外に、他の汎用的な構成要素をさらに含んでもよい。
制御部100は、プロセッサのようにデータを処理することができる全ての種類の装置を含んでもよい。制御部100は、プロセッサを利用し、予測装置10を全般的に制御する動作を遂行することができる。ここで、「プロセッサ」は、例えば、プログラム内に含まれたコードまたは命令によって表現された機能を遂行するために、物理的に構造化された回路を有する、ハードウェアに内蔵されたデータ処理装置を意味する。そのように、ハードウェアに内蔵されたデータ処理装置の一例として、マイクロプロセッサ(microprocessor)、中央処理装置(CPU:central processing unit)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application−specific integrated circuit)、FPGA(field programmable gate array)のような処理装置を網羅することができるが、本発明の範囲は、それらに限定されるものではない。
図2を参照すれば、制御部100は、データ学習部110及びデータ認識部120を含んでもよい。
データ学習部110は、複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する基準を学習することができる。データ学習部110を介し、本開示の予測モデルを学習させることができる。既患者とは、脳梗塞患者、脳卒中患者であり、予測モデルに学習用入力データを提供するデータ提供者を意味する。対象者は、既患者と同様に、脳血管の動脈硬化症による血栓、及び心臓に由来する塞栓による脳血管の閉塞による脳梗塞患者でもあるが、対象者は、必ずしもそれに限定されるものではない。該対象者は、本開示の病変分布予測装置10または方法を介し、脳組織病変分布予測情報を提供されるテスト患者を意味する。
本開示の予測モデルは、複数の既患者のうち、再開通(recanalization)治療に成功した患者の脳映像データを利用して学習される成功予測モデル(SR:successful recanalization)、及び複数の既患者のうち、再開通治療に失敗した患者の脳映像データを利用して学習される失敗予測モデル(UR:unsuccessful recanalization)を含む。2つの予測モデル(SR,UR)を利用した病変分布予測方法については、後述する図5において、さらに詳細に説明する。
該予測モデルは、多種の機械学習(machine learning)技法によって生成されたものでもある。該予測モデルは、人工神経網(artificial neural network)を基盤とするモデルでもあるが、該人工神経網のネットワーク構造は、本発明を限定するものではない。
データ学習部110は、データ入力部111、データ前処理部112、学習データ選択部113、モデル学習部114及びモデル評価部115を含んでもよい。
データ入力部111は、外部の脳映像撮影装置、または既保存の医療データベース(DB)から、脳映像データ、例えば、磁気共鳴映像(MRI)データを受信することができる。本開示において、該脳映像データは、拡散強調映像(DWI)、貫流強調映像(PWI)を含んでもよい。
データ前処理部112は、対象者の脳組織病変分布を予測するための学習/トレーニングに入力されたデータが利用されうるように、入力されたデータを前処理(pre−processing)することができる。データ前処理部112は、後述するモデル学習部114が、病変分布を予測するための学習のために入力されたデータを利用するように、入力されたデータを既設定のフォーマットに加工することができる。データ前処理部112は、入力された脳映像から、学習用入力データを選択/生成する作業を遂行することができる。
さらに具体的には、データ前処理部112(以下、「前処理部112」ともする)は、後述する動作を遂行することができる。
前処理部112は、複数の既患者それぞれの互いに異なる種類の脳映像データを整合(co−register)することができる。該脳映像データは、磁気共鳴映像(MRI)データを含んでもよい。該磁気共鳴映像データは、拡散強調映像(DWI)データ、貫流強調映像(PWI)データ、液体減衰逆転回復(FLAIR:fluid attenuated inversion recovery)映像データ、磁化率強調映像(SWI:susceptibility weighted imaging)データ、T1強調(T1−weighted)映像データ、T2強調(T2−weighted)映像データを含んでもよいが、該磁気共鳴映像データの種類は、それらに制限されるものではない。
本開示において、整合される前記脳映像データは、治療前に獲得された第1拡散強調映像(DWI)、治療前の貫流強調映像(PWI)、及び治療後に獲得された第2拡散強調映像(DWI)を含んでもよい。
予測装置10は、外部の磁気共鳴映像装置、または既保存の医療データベース(DB)から、磁気共鳴映像データを受信することができるが、本発明は、それに制限されるものではない。
前処理部112は、脳映像データから変形データを計算することができる。前記変形データは、DWIデータを加工して得られた見掛け拡散係数(ADC:apparent diffusion coefficient)、PWIデータを加工して得られたTTP(time to peak)及びrTTP(relative time to peak)を含んでもよいが、それらに限定されるものではない。該変形データについては、後述する図6においてさらに詳細に説明する。
さらに具体的には、前処理部112は、第1拡散強調映像(DWI)データからADCを計算し、治療前の貫流強調映像(PWI)データから、rTTPを計算し、rTTPマップを獲得することができる。前処理部112は、第2拡散強調映像(DWI)データから、関心領域LS(図7)を選択することができる。該関心領域LSは、データ提供者または対象者脳の病変に対応する領域でもある。
前処理部112は、データ提供者または対象者脳の病変部位に対応する関心領域LS(図7)、及び正常部位に対応する対称領域C_LS(図7)を選択することができる。このとき、関心領域LSは、第1中心ボクセル、及び前記第1中心ボクセル周辺の第1周辺ボクセルを含み、対称領域C_LSは、第2中心ボクセル、及び前記第2中心ボクセル周辺の第2周辺ボクセルを含んでもよい。
関心領域LS内及び対称領域C_LS内で分割されるボクセルそれぞれにつき、最終的に病変に該当するか否かということが決定されうる。すなわち、関心領域LS内においても、病変非該当に決定されるボクセルもあり、対称領域C_LS内においても、病変該当に決定されるボクセルもある。
前処理部112は、関心領域に対し、ボクセルv別に、病変該当いかんにより、既設定の値にラベリングすることができる。前処理部112は、関心領域及び対称領域に対し、ボクセル別に前述の変形データを抽出し、学習用入力データを獲得することができる。前処理部112の動作については、後述する図7において、さらに詳細に説明する。
学習データ選択部113は、前処理された学習用入力データのうち、学習に必要なデータを選択することができる。選択されたデータは、モデル学習部114にも提供される。学習データ選択部113は、既設定基準により、前処理されたデータのうち、学習に必要なデータを選択することができる。学習データ選択部113は、後述するモデル学習部114による学習により、既設定基準により、データを選択することもできる。
モデル学習部114は、前述の「予測モデル」に対応しうる構成要素として、学習データに基づき、対象者の病変分布をいかに予測するかということに係わる基準を学習することができる。特に、本開示において、該予測モデルは、成功予測モデル及び失敗予測モデルを含むので、モデル学習部114は、成功/失敗予測モデルそれぞれに係わる基準を学習することができる。また、モデル学習部114は、病変分布を予測するために、いかなる学習データを利用しなければならないか、すなわち、学習用入力データ選択に係わる基準を学習することもできる。
また、モデル学習部114は、病変分布を予測するのに利用されるデータ認識モデルを、学習データを利用して学習させることができる。この場合、該データ認識モデルは、あらかじめ構築されたモデルでもある。該データ認識モデルが学習されれば、モデル学習部114は、学習されたデータ認識モデルを、データ認識部120を含む電子装置のメモリに保存することができる。または、モデル学習部114は、学習されたデータ認識モデルを、電子装置と有線ネットワークまたは無線ネットワークで連結されるサーバのメモリに保存することもできる。
モデル評価部115は、データ認識モデルに評価データを入力し、評価データから出力される認識結果が所定基準を満足することができない場合、モデル学習部114にさらに学習させることができる。その場合、該評価データは、データ認識モデルを評価するための既設定データでもある。
データ認識部120は、対象者の入力データに基づき、対象者の脳組織病変分布を予測することができる。データ認識部120は、学習された予測モデルを利用し、対象者の治療前病変分布に係わる情報を含む脳映像データから、治療後病変分布を予測することができる。データ認識部120は、学習による既設定基準により、入力データを獲得し、それを予測モデルに入力し、病変分布を予測することができる。前記「既設定基準」とは、データ学習部110において、複数の既患者の脳映像データに対して遂行するデータ処理に係わるアルゴリズムでもある。すなわち、病変分布を予測する対象者の脳映像データについても、予測モデルの学習に利用された複数の既患者の脳映像データに対するデータの選択段階、生成段階または前処理段階が同一であったり、類似したりして適用されうる。また、データ認識部120を介して獲得されたデータを入力値にし、データ認識モデルによって出力された結果値は、データ認識モデルの更新にも利用される。
データ認識部120は、データ入力部121、データ前処理部122、認識データ選択部123、出力提供部124及びモデル更新部125を含んでもよい。
データ入力部121には、病変分布予測に必要なデータとして、対象者の治療前脳映像データが入力されうる。前処理部122は、入力されたデータが利用されるように受信したデータを前処理することができる。前処理部122は、後述する出力提供部124が病変分布を予測するために入力されたデータを利用するように、入力されたデータを、既設定のフォーマットに加工することができる。
前処理部122は、前述のデータ学習部110の前処理部112と同一アルゴリズムでもって、対象者の脳映像データを前処理することができる。前処理部122は、対象者の脳映像データに対し、後述する段階を遂行し、具体的な内容は、前述のデータ学習部110の前処理部112に係わる説明を参照することができる。
前処理部122は、対象者の互いに異なる種類の脳映像データを整合し、前記脳映像データは、第1 DWIデータ、治療前PWIデータ、及び治療後(例えば、治療後7日経過時)データである第2 DWIデータを含んでもよい。前処理部122は、前記脳映像データから変形データを計算し、病変領域に該当する関心領域を選択することができる。前処理部122は、前記関心領域に対し、ボクセル別に、病変該当いかんにより、既設定の値にラベリングし、前記関心領域及び前記対称領域に対し、ボクセル別に、変形データを抽出し、学習用入力データを獲得することができる。
前述の前処理部122の動作については、後述する図6ないし図8において、さらに詳細に説明する。
認識データ選択部123は、前処理されたデータのうち、病変分布予測に必要なデータを選択することができる。選択されたデータは、出力提供部124にも提供される。認識データ選択部123は、病変分布予測のための既設定基準により、前処理されたデータのうち、一部または全部を選択することができる。また、認識データ選択部123は、モデル学習部114による学習によって既設定の基準により、データを選択することもできる。
出力提供部124は、選択されたデータを、データ認識モデルに適用し、対象者の治療後病変分布を予測することができる。出力提供部124は、データの認識目的による認識結果を提供することができる。出力提供部124は、認識データ選択部123によって選択されたデータを、入力値として利用することにより、選択されたデータを、データ認識モデルに適用することができる。また、認識結果は、データ認識モデルによっても決定される。
モデル更新部125は、出力提供部124によって提供される認識結果に係わる評価に基づき、データ認識モデルが更新されるようにする。例えば、モデル更新部125は、出力提供部124によって提供される認識結果を、モデル学習部114に提供することにより、モデル学習部114がデータ認識モデルを更新するようにする。
データ学習部110及びデータ認識部120のうち少なくとも一つは、少なくとも1つのハードウェアチップ状に作製され、電子装置に搭載されうる。例えば、データ学習部110及びデータ認識部120のうち少なくとも一つは、人工知能(AI:artificial intelligence)のための専用ハードウェアチップ状にも作製され、または、既存の汎用プロセッサ(例:CPUまたはAP(application processor))またはグラフィック専用プロセッサ(例:GPU)の一部に作製され、前述の各種電子装置にも搭載される。
一方、データ認識部120内のデータ入力部121、前処理部122、認識データ選択部123、出力提供部124及びモデル更新部125のうち少なくとも一つは、少なくとも1つのハードウェアチップ状に作製され、電子装置にも搭載される。例えば、データ入力部121、前処理部122、認識データ選択部123、出力提供部124及びモデル更新部125のうち少なくとも一つは、人工知能(AI)のための専用ハードウェアチップ状にも作製され、または既存の汎用プロセッサ(例:CPUまたはAP)またはグラフィック専用プロセッサ(例:GPU)の一部にも作製され、前述の各種電子装置にも搭載される。
その場合、データ学習部110及びデータ認識部120は、1つの電子装置にも搭載され、または別個の電子装置にもそれぞれ搭載される。例えば、データ学習部110及びデータ認識部120のうち一つは、電子装置に含まれ、残り一つは、サーバにも含まれる。また、データ学習部110及びデータ認識部120は、有線または無線を介し、データ学習部110が構築したモデル情報を、データ認識部120に提供することもで、データ認識部120に入力されたデータが、追加学習データとして、データ学習部110にも提供される。
出力部200は、予測装置10で処理される情報を表示または出力することができる。出力部200は、脳映像データを入力されるためのユーザインターフェース、及び病変分布予測結果(出力映像データ)などをディスプレイするディスプレイ部を含んでもよい。ユーザは、出力部200に示された病変分布予測結果を参照し、対象者に対する再開通治療いかんなどの治療法を決定することができる。
具体的には、出力部200は、予測モデルを利用し、対象者に対する再開通治療後の病変分布に係わる情報を含む出力映像データを生成することができる。前記出力映像データは、データ認識部120の出力提供部124によって生成されたものであり、出力部200は、出力提供部124からデータを受信して出力することができる。
出力部200は、成功予測モデルを介し、第1出力映像データを生成し、失敗予測モデルを介し、第2出力映像データを生成することができる。前記第1出力映像データは、対象者に対する再開通治療成功後の病変分布に係わる情報を含み、前記第2出力映像データは、対象者に対する再開通治療失敗後の病変分布に係わる情報を含んでもよい。
出力部200は、前記第1出力映像及び前記第2出力映像データを相互比較し、対象者に対する再開通治療いかんなどの治療方針を決定することができる。
図3は、本発明の一実施形態による病変分布予測方法を示したフローチャートである。一実施形態による病変分布予測方法(以下、「予測方法」ともする)は、モデル学習段階(S100)、入力獲得段階(S200)、入力段階(S300)及び出力段階(S400)を含む。
複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させるモデル学習段階(S100)が遂行されうる。S100段階は、予測装置10の制御部100、そのうちでも、データ学習部110によっても遂行される。本開示の予測モデルは、データ提供者または対象者に対する再開通治療の成功いかんによって区分される成功予測モデルSR及び失敗予測モデルURを含んでもよい。前記2つの予測モデル(SR,UR)については、後述する図5ないし図8において、さらに詳細に説明する。
S100段階については、後述する図4において、さらに詳細に説明する。
前記対象者の脳映像データから、入力データを獲得する入力獲得段階(S200)が遂行されうる。S200段階は、制御部100のデータ認識部120によっても遂行される。具体的には、S200段階は、データ認識部120のデータ入力部121、前処理部122及び認識データ選択部123のうち少なくとも一つによっても遂行される。
入力データを予測モデルに入力する入力段階(S300)が遂行されうる。このとき、予測モデルに入力される入力データは、データ入力部121が受信した対象者の治療前脳映像データに対し、前処理部122がデータ前処理を行い、認識データ選択部123が最終的に選択したデータでもある。該入力データについては、前述の「学習用入力データ」に係わるデータ処理アルゴリズムが同一にも適用される。前記予測モデルは、データ学習部110のモデル学習部114に対応する構成要素でもある。
該予測モデルを利用し、対象者に対する治療後の病変分布に係わる情報を含む出力映像データを生成する出力段階(S400)が遂行されうる。前記治療は、再開通治療でもある。S400段階は、制御部100及び出力部200によっても遂行される。具体的には、モデル学習部114によって学習された予測モデルを利用し、データ認識部120の出力提供部124を介し、前記出力映像データが生成され、出力部200を介し、前記出力映像データがディスプレイされうる。
S400段階は、入力データを成功予測モデルに入力し、対象者に対する再開通治療成功後の病変分布に係わる情報を含む第1出力映像データを生成する第1出力段階、及び前記入力データを失敗予測モデルに入力し、対象者に対する再開通治療失敗後の病変分布に係わる情報を含む第2出力映像データを生成する第2出力段階を含んでもよい。
S400段階は、前記第1出力映像データ及び前記第2出力映像データを相互比較し、対象者に対する再開通治療いかんのような治療方針を決定する段階をさらに含んでもよい。
図4は、本発明の一実施形態による病変分布予測方法のモデル学習段階(S100)をさらに具体的に示したフローチャートである。S100段階は、後述する段階を含んでもよい。
複数の既患者それぞれの互いに異なる種類の脳映像データを整合する映像整合段階(S110)が遂行されうる。前記映像整合段階で整合される互いに異なる種類の脳映像データは、治療前に獲得された第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データ、及び治療後に獲得された第2拡散強調映像(DWI)データを含んでもよい。
その後、前記脳映像データから変形データを計算し、関心領域を選択する段階(S120)が遂行されうる。脳映像データの種類別に計算される変形データは、異なり、具体的には、治療前DWIデータからは、ADCを計算し、PWIデータからは、TTPまたはrTTPを計算することができる。治療前DWIデータ、治療前PWIデータからは、関心領域及び対称領域を選択し、治療後DWIデータについては、関心領域を選択することができる。
その後、前記関心領域に対し、ボクセル別に、病変該当いかんにより、既設定の値(例えば、0または1)にラベリングするラベリング段階(S130)が遂行されうる。前記ラベリング段階は、第2 DWIデータについても遂行される。
その後、前記関心領域及び前記対称領域に対し、ボクセル別に、前記変形データを出し、学習用入力データを獲得する学習用入力獲得段階(S140)が遂行されうる。
前述のS110,S120,S130,S140段階は、データ認識部110で遂行され、さらに具体的には、データ前処理部112においても遂行される。一実施形態により、映像整合段階(S110)は、データ入力部111においても遂行される。
図5は、本発明の一実施形態による病変分布予測方法の入出力段階について説明するための概念図である。
本開示の予測モデルは、成功予測モデルSR及び失敗予測モデルURを含む。複数の既患者の治療前及び治療後の脳映像データを利用しても、予測モデル(SR,UR)それぞれを学習させることができる。各予測モデル(UR,SR)ブロックにおいて、左側が治療前脳映像データであり、右側が治療後脳映像データである。本開示の病変分布予測方法のモデル学習段階(S100)は、失敗予測モデルURを学習させる段階(S100−1)、及び成功予測モデルSRを学習させる段階(S100−2)を含んでもよい。
血管再開通いかんを決定するための尺度として使用される指標として、mTICI(modified treatment in cerebral infarction)指標がある。mTICI指標は、順次に、0、1、2a、2b、3の値を有することができる。本開示の成功予測モデルSRは、mTICI指標が、2b、3(mTICI≧2b)である既患者のデータを基に学習され、失敗予測モデルURは、mTICI指標が、0、1、2a(mTICI≦2a)である既患者のデータを基にも学習されうる。
本開示の予測装置10の制御部100は、病変分布を予測する対象者の治療前脳映像データを受信することができる。該治療前脳映像データにつき、前述の予測モデルを利用した病変分布予測にも活用されるようにデータ前処理され、入力データが獲得される段階(S200)が遂行されうる。
前記加工された入力データは、成功/失敗予測モデル(SR,UR)それぞれに入力され(S300−1,S300−2,S300段階)、入力された各モデルを介し、対象者の病変分布を予測することができる。
予測装置10の出力部200を介し、出力映像データO1,O2が出力され、対象者の脳組織病変分布を予測することができる。このとき、実際治療成功/失敗ケースを基に、機械学習された予測モデルを利用し、出力を、映像データ形態で出力することにより、ユーザ(対象者または検査者など)に、正確であって直観的な予測情報を提供することができる利点がある。
出力部200は、対象者の入力データが失敗予測モデルURに入力された場合、対象者に対する再開通治療の失敗時に予測される病変分布に係わる情報を含む第1出力映像データO1を出力することができる。出力部200は、対象者の入力データが成功予測モデルSRに入力された場合、再開通治療の成功時に予測される病変分布に係わる情報を含む第2出力映像データO2を出力することができる。出力映像データO1,O2を介し、梗塞成長(Infarct growth)程度位及びその結果を予測することができる。
図6は、本発明の一実施形態によるrTTPマップを生成する方法について説明するための概念図である。
図6の左上端には、データ提供者の治療前PWI映像データの各フレームが図示されている。まず、図6(a)グラフのように、PWI映像データの各フレーム(時間別フレームでもある)ごとの各ボクセルvに対し、磁気共鳴映像信号強度(MR信号強度(MR signal intensity))を求める。その後、図6(b)グラフのように、MR信号強度を造影剤濃度(contrast agent concentration)に変換し、図6(b)の濃度グラフ上において、各ボクセルv別にTTPを計算し、TTPマップを獲得することができる。該TTPは、造影剤の濃度が最大になる時間を意味する。このとき、MR信号強度を造影剤濃度に変換する公式は、以下[数式1]の通りである。
[数1]
C(t)=−1/(r・TE)・log(S(t)/S
前記数式1で、C(t)は、造影剤濃度、rは、T2 relaxivity、TEは、エコー時間、S(t)は、磁気共鳴映像信号強度、S-は、磁気共鳴映像信号強度の初期値を意味する。左辺の造影剤濃度C(t)が最大になる時点において、TTP値が決定されうる。
その後、TTPマップから、病変ではない正常部位(図6においては、右脳領域)(contralateral region)に対し、各ボクセル別に、TTP値の中央値(median)を計算した後、前記中央値を病変部位のTTP値から差し引けば、rTTPマップを獲得することができる。rTTP(相対的最大到達時間)とは、PWI映像において、造影剤濃度が最大になる、すなわち、磁気共鳴映像信号が最小になる時間を意味するデータであり、正常部位対比で、病変部位での造影剤の最大到達時間の相対的差を提示することができる。(x,y)座標値を有するボクセルに対し、前述のrTTPを求める過程を数式で表現すれば、以下の[数式2]の通りである。
[数2]
rTTP(x,y)=TTP(x,y)−median(正常部位のTTP)
図7は、本発明の一実施形態によるデータ前処理段階であり、予測モデルを機械学習させるための入力データを獲得する方法について説明するための概念図である。
図7を参照すれば、本開示の病変分布予測に使用される脳映像データとして、第1 DWIデータ(治療前DWIデータ)、治療前PWIデータ及び第2 DWIデータ(治療後DWIデータ)が図示されている。
図7の中央に図示された治療前PWIデータから、rTTPを計算する方法については、図6に係わる部分で説明した。
第1 DWIデータからADCが計算されうる。該ADCは、脳組織において、病変または細胞死による水分子拡散程度、すなわち、水分子拡散の制限程度を判別しうる指標である。該ADCは、互いに異なるb値を有するDWI映像の信号強度変化を示す。
まず、第1 DWIデータに対し、病変部位に対応する関心領域LS、及び正常部位に対応する対称領域C_LSが選択されうる。このとき、関心領域LS内のボクセルは、第1中心ボクセルv1及び第1周辺ボクセルv1_nを含んでもよい。第1周辺ボクセルv1_nは、第1中心ボクセルv1を基準に、5×5×3領域内においても選択されるが、それに限定されるものではない。同様に、対称領域C_LS内のボクセルは、第2中心ボクセルv2及び第2周辺ボクセルv2_nを含んでもよい。第2周辺ボクセルv2_nは、第2中心ボクセルv2を基準に、5×5×3領域内においても選択されるが、それに限定されるものではない。
関心領域LS及び対称領域C_LSの各ボクセル別に、ADC値及びrTTP値を計算し、各値の統計的情報を抽出(voxel−wise feature extraction)することができる。
第2 DWIデータからは、関心領域LS内の当該ボクセルが、最終脳損傷病変に該当するか否かということを判断することができる。すなわち、ボクセル別に、病変該当いかんにより、既設定の値にもラベリングされる。前記既設定の値は、0または1でもあり、例えば、当該ボクセルが病変に該当すれば(infarct)、1、病変に該当しなければ(no infarct)、0の値にラベリングすることができる。このとき、関心領域LS内においても、病変非該当に決定され、0の値にラベリングされるボクセルもあり、対称領域C_LS内においても、病変該当に決定され、1の値にラベリングされるボクセルもある。ただし、初級性脳梗塞患者の場合、一側の脳にだけ病変の発生する確率が高いので、大体関心領域LS内において、1にラベリングされるボクセルが存在し、対称領域C_LS内には、請求項に記載の1にラベリングされるボクセルが存在する可能性が低いのである。
他の位置にあるボクセル、及び他のスライス映像データに係わるボクセルについても、前述のアルゴリズムを適用し、本開示の予測モデルを学習/トレーニングさせるための入力データ(トレーニングデータ)を獲得することができる。
下記[表1]は、前述のところに基づいて獲得された前記入力データ形式の一例示でもある。左側列の番号は、ボクセルに付与された識別番号を示し、病変領域(Lesion)及び対称領域(Contra)のADC値またはrTTP値それぞれの最小値(min)、最大値(max)及び平均値(mean)に係わる統計的数値が、下記[表1]の形態に抽出され、そのような[表1]が、機械学習に入力ベクトル(feature vector)としても活用される。
下記[表1]において、…で表示された他の変形データは、標準偏差(standard deviation)、尖度(kurtosis)、歪曲度(skew)、10百分位数(10 percentile)、25百分位数(25 percentile)、75百分位数(75 percentile)及び90百分位数(90 percentile)のうちから選択されたいずれか一つでもあるが、それらに限定されるものではない。
Figure 2022002073
そのように、複数の既患者それぞれの脳映像データから抽出された入力データを獲得した後、本開示の成功/失敗予測モデルを学習させて最終訓練された予測モデルを算出することができる。
図8は、本発明の一実施形態による予測モデルを利用した複数の対象者の病変分布予測結果について説明するための図面である。
図8を参照すれば、4人の対象者に対する成功/失敗予測モデルを適用し、病変分布を予測した結果が比較図示されている。図8の左側に表記された事例A,Cは、再開通治療に失敗した患者ケースであり、事例B,Dは、再開通治療に成功した患者ケースを示す。各列に図示された映像データは、図8の上側に表記されているように、左側列から順次に、第1 DWIデータ、ADC、rTTP、失敗予測モデルURを利用した予測結果(UR prediction)、成功予測モデルSRを利用した予測結果(SR prediction)、及び第2 DWIデータを示す。このとき、第2 DWIデータは、再開通治療7日後のDWIデータを示すことができる。本開示において、第2 DWIデータを、7日後データでもって例示に入れた理由は、7日後の病変分布が、病変分布の長期的予後と相関性(correlation)が高いためでもある。ADCは、第1 DWIデータから抽出されたデータでもあり、rTTPは、前述の治療前PWIデータから抽出されたデータでもある。予測モデル(UR,SR)は、ADC、rTTP及び第2 DWIデータを基にも機械学習される。各映像データ右側下端に表記された数字は、脳組織病変部位の容量を示す。
まず、事例A(失敗、梗塞成長も大きい場合)について説明する。事例Aの治療前後のDWIデータを比較説明すれば、第1 DWIデータにおいて、治療前病変容量は、4mlであり、第2 DWIデータにおいて、治療後病変容量は、243mlであり、梗塞成長(または、病変成長)(infarct growth)が約240mlと、大きい場合に該当する。
ここで、失敗予測モデルURを利用し、事例A患者の治療前データ(ADC,rTTP)から病変分布を予測した結果、病変容量が約116ml、すなわち、梗塞成長は、約112ml(UR predictionの病変容量から、治療前病変容量を差し引いた値)と高く予測されることを確認することができる。一方、成功予測モデルSRを利用して予測する場合、病変容量が約11mlと予測された。
次に、事例B(成功、梗塞成長も小さい場合)について説明する。事例Bの治療前後のDWIデータを比較説明すれば、第1 DWIデータにおいて、治療前病変容量は、1mlであり、第2 DWIデータにおいて、治療後病変容量は、4mlであり、梗塞成長が約3mlと小さい場合に該当する。
ここで、成功予測モデルSRを利用し、事例B患者の治療前データ(ADC,rTTP)から病変分布を予測した結果、病変容量が約7ml、すなわち、梗塞成長は、約6ml(SR predictionの病変容量から、治療前病変容量を差し引いた値)と低く予測されることを確認することができる。一方、失敗予測モデルURを利用して予測する場合、病変容量が約101mlと予測された。
次に、事例C(失敗、梗塞成長も小さい場合)について説明する。事例Cの治療前後のDWIデータを比較説明すれば、第1 DWIデータにおいて、治療前病変容量は、4mlであり、第2 DWIデータにおいて、治療後病変容量は、32mlであり、梗塞成長が約28mlと小さい場合に該当する。
ここで、失敗予測モデルURを利用し、事例C患者の治療前データ(ADC,rTTP)から病変分布を予測した結果、病変容量が約28ml、すなわち、梗塞成長は、約22mlと低く予測されることを確認することができる。一方、成功予測モデルSRを利用して予測する場合、病変容量が約8mlと予測された。
次に、事例D(成功、梗塞成長も大きい場合)について説明する。事例Dの治療前後のDWIデータを比較説明すれば、第1 DWIデータにおいて、治療前病変容量は、17mlであり、第2 DWIデータにおいて、治療後病変容量は、86mlであり、梗塞成長が約69mlと大きい場合に該当する。
ここで、成功予測モデルSRを利用し、事例D患者の治療前データ(ADC,rTTP)から病変分布を予測した結果、病変容量が約55ml、すなわち、梗塞成長は、約38mlと高く予測されることを確認することができる。一方、失敗予測モデルURを利用して予測する場合、病変容量が約89mlと予測された。
再開通治療に失敗した事例であるA及びCについて述べれば、失敗時、梗塞成長が大きくて小さいそれぞれの場合につき、本開示の失敗予測モデルURを介し、その傾向性を比較的正確に予測したことを確認することができる。同様に、再開通治療に成功した事例であるB及びDについて述べれば、成功時、梗塞成長が小さくて大きいそれぞれの場合につき、本開示の成功予測モデルSRを介し、その傾向性を比較的正確に予測したことを確認することができる。
そのように、本発明の一実施形態による病変分布予測方法によれば、データ提供者または対象者の治療成功時及び治療失敗時、脳映像データを利用し、別個に機械学習させた成功予測モデル及び失敗予測モデルを介し、対象者の治療前データから、治療後、成功時または失敗時の病変分布に係わる正確であって直観的な予測が可能であるという利点がある。それにより、対象者に対する脳梗塞治療の成功率及び安全性を高めることができる。
さらに詳細には、予測に使用される脳映像データとして、DWIデータ及びPWIデータが使用され、前記脳映像データから抽出される変形データとしてA、DC、TTP及びrTTPが活用されることにより、各対象者に対し、再開通治療の成功時及び/または失敗時、病変分布の予測の正確度を高めることができる。
また、実際治療の成功/失敗事例データで学習された予測モデルを介し、映像データだけでも、正確であって直観的な病変分布及びその容量に係わる予測情報を提供することができる。対象者(患者)または保護者に、治療方針決定について視覚的な情報/根拠を介して診断しうる利点がある。
図9は、本発明の一実施形態による病変分布予測方法の統計的有意性について説明するためのグラフである。図9は、治療成功ケースの対象者に対し、成功予測モデルSRで病変分布を予測したケースを、実際梗塞成長容量(ml)によってグルーピングしたグラフである。図9(a)は、ターゲット不一致方式(target mismatch)で対象者を分類したグラフ(P=0.02である場合)であり、図9(b)は、本開示の予測モデルを利用して予測した梗塞成長容量(infarct growth volume)を基準に対象者を分類したグラフ(P=0.01である場合)を示す。各グラフの縦軸は、実際梗塞成長容量(ml)を示す。
以下、P値は(a)、(b)の各方式でグルーピングしたグループ間の患者分布図の差を示す尺度でもある。一例として、P値が約0.05以下である場合、統計的有意味性を有すると言うことができる。一方、各グラフに図示された点は、患者数を示し、以下「n」で表記することができる。ターゲット不一致方式とは、DWIデータ及びPWIデータそれぞれの病変領域、及びそれら間の病変領域の不一致程度を算出する方式を意味する。このとき、算出されたターゲット不一致程度が大きいほど、再開通成功時、好転程度が良好であると解釈することができる。
まず、図9(a)を参照すれば、既存のターゲット不一致方式を利用し、グループ化した場合、不一致不在(mismatch absence)グループが縦軸に対し、不均一な分布(heterogeneous distribution)を示すが、点で表記された患者の数が不一致を示すグループ(mismatch presence)に比べ、はるかに小さい(n=6)。従って、不一致不在(mismatch absence)グループが不一致を示すグループ(mismatch presence)と比較するとき、統計的に梗、塞成長において有意味な差があると断定し難いということを確認することができる。
一方、図9(b)を参照すれば、梗塞成長容量が低いグループ(low)、中間グループ(intermediate)、高いグループ(high)に分類し、各ケースに対応する梗塞成長容量によってグルーピングされている。このとき、低いグループ(n=8)、及び高いグループ(n=9)が統計的有意味性を有するということを確認することができる。高いグループ(high)(SR−predicted infarct growth≧35mL)は、縦軸に対し、不均一な分布を示す一方、低いグループ(low)(SR−predicted infarct growth<15mL)は、密集された(narrow)分布を示すということを確認することができる。
そのように、本開示による予測モデルを利用した病変分布及びその容量の予測時、再開通治療の成功時または失敗時の病変分布及びその容量の多様な程度に係わる傾向性を把握することができる。
図10は、本発明の一実施形態による、成功予測モデルSR及び失敗予測モデルURの予測特性について説明するためのグラフである。図10(a)及び図10(b)の横軸は、第2 DWIデータ(day−7 DWIデータ)上において、病変領域を分割した後、手作業で測定した最終梗塞容量(mL)を示し、縦軸は、本発明の予測モデルで予測した最終梗塞容量(mL)を示す。図10(a)は、失敗予測モデルURに係わる結果であり、図10(b)は、成功予測モデルSRに係わる結果である。
前述の横軸の値をレファレンス(reference)値にし、級内相関係数(ICC:intraclass correlation coefficient)値を計算した結果、図10(a)の場合、ICC=0.73(95%信頼区間は、0.31ないし0.91、P<0.01)、図10(b)の場合、ICC=0.87(95%信頼区間は、0.73ないし0.94、P<0.001)と計算された。図10のグラフ上の分布、及びICC値を介し、第2 DWIデータから直接算出した梗塞領域と、本開示の予測モデル(SR,UR)を利用して予測された梗塞領域との相関度が高いということを確認することができる。
以下、図10の横軸、縦軸をバイナリマスク(binary mask)の形態で示した病変分布の一致性を、DSC(dice similarity coefficient)を利用して測定した結果について説明する。
全体患者サンプルに係わる外部検証(external validation)の場合、中間DSC(median DSC)点数は、約0.49(四分位範囲(IQR:interquartile range)は、約0.37ないし約0.59である)と算出された。失敗予測モデルURによる外部検証の場合、約0.58(IQRは、約0.55ないし約0.67である)、成功予測モデルSRによる外部検証の場合、約0.43(IQRは約0.20約0.52)と算出され、再開通治療に成功したケースのDSC値がさらに小さいということを確認することができる。最終梗塞体積が小さい場合、DSC数値も小さくなる傾向を示し、前述のように、両モデル(UR,SR)を別途に計算した値によって確認することができる。
図11は、本発明の一実施形態による病変分布予測方法による臨床的予後のスコア結果分布について説明するための図面である。図11(a)及び図11(b)は、再開通治療に成功した患者群に係わる図面であり、図11(c)及び図11(d)は、治療に失敗した患者群に係わる図面である。図11(a)及び図11(c)は、ターゲットミスマッチ方式に係わるグルーピング結果分布を示した図面である。図11(b)及び図11(d)は、本開示による予測方法による予測梗塞成長容量程度により、3つのグループにグルーピングした後、各グループに対する臨床的予後のスコア結果分布を示した図面である。
一般的に、予後測定において、症状発現90日後のmRS(modified rankin scale)数値を使用することができ、mRS数値が高いほど、予後が良好ではないと解釈することができる。図11(b)及び図11(d)を参照すれば、梗塞成長が小さく予測されたグループ(low)の場合、大きく予測されたグループ(high)に比べ、予後が良好であるという傾向があることを確認することができる。一例として、mRS数値が2以下が、予後が良好であると仮定する。図11(b)を参照すれば、予後が良好である患者数が低いグループ(low)の場合、約80%であり、高いグループ(high)の場合、約50%であるということを確認することができる。
以上で説明された本発明による実施形態は、コンピュータ上で多様な構成要素を介しても実行されるコンピュータプログラムの形態に具現され、そのようなコンピュータプログラムは、コンピュータで読み取り可能な媒体に記録されうる。このとき、該媒体は、コンピュータで実行可能なプログラムを保存するものでもある。該媒体の例示としては、ハードディスク、フロッピィーディスク及び磁気のテープのような磁気媒体;CD−ROM(compact disc read only memory)及びDVD(digital versatile disc)のような光記録媒体、フロプティカルディスク(floptical disk)のような磁気・光媒体(magneto−optical medium);及びROM(read only memory)、RAM(random access memory)、フラッシュメモリなどを含み、プログラム命令語が保存されるように構成されたものあり得る。
一方、前記コンピュータプログラムは、本発明のために特別に設計されて構成されたものでもあり、コンピュータソフトウェア分野の当業者に公知されて使用可能なものでもある。コンピュータプログラムの例には、コンパイラによって作われるような機械語コードだけではなく、インタープリタなどを使用し、コンピュータによって実行されうる高級言語コードも含まれうる。
また、以上では、本発明の望ましい実施形態について図示して説明したが、本発明は、前述の特定実施形態に限定されるものではなく、特許請求の範囲で請求する本発明の要旨を外れることなしに、当該発明が属する技術分野で当業者によって多様な変形実施が可能であるということは、言うまでもなく、そのような変形実施は、本発明の技術的な思想や展望から、個別的に理解されるものではない。
従って、本発明の思想は、前述の実施形態に局限して定められるものではなく、特許請求の範囲だけではなく、該特許請求の範囲と均等であったり、それらから等価的に変更されたりする全ての範囲が、本発明の思想の範疇に属するものである。
10 病変分布予測装置
100 制御部
110 データ学習部
120 データ認識部
200 出力部
C_LS 対称領域
LS 関心領域
SR 成功予測モデル
UR 失敗予測モデル

Claims (15)

  1. 複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させるモデル学習段階と、
    前記対象者の脳映像データから入力データを獲得する入力獲得段階と、
    前記入力データを、前記予測モデルに入力する入力段階と、
    前記予測モデルを利用し、前記対象者に対する再開通治療後の前記病変分布に係わる情報を含む出力映像データを生成する出力段階と、を含み、
    前記予測モデルは、
    複数の既患者のうち、再開通治療に成功した患者の脳映像データを利用して学習される成功予測モデル、及び前記複数の既患者のうち、再開通治療に失敗した患者の脳映像データを利用して学習される失敗予測モデルを含む、脳組織病変分布予測方法。
  2. 前記モデル学習段階は、
    複数の既患者それぞれの互いに異なる種類の脳映像データを整合する映像整合段階と、
    前記脳映像データから変形データを計算し、前記病変部位に対応する関心領域を選択する段階と、
    前記関心領域に対し、ボクセル別に、病変該当いかんにより、既設定の値にラベリングする段階と、
    前記関心領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得する学習用入力獲得段階と、を含む、請求項1に記載の脳組織病変分布予測方法。
  3. 前記映像整合段階で整合される脳映像データは、
    治療前に獲得された第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データ、及び治療後に獲得された第2拡散強調映像(DWI)データを含む、請求項2に記載の脳組織病変分布予測方法。
  4. 前記計算して選択する段階は、
    前記第1拡散強調映像(DWI)データから、見掛け拡散係数(ADC)を計算する段階と、
    前記治療前の貫流強調映像(PWI)データから、rTTP(relative time to peak)を計算し、rTTPマップを獲得する段階と、
    前記第1拡散強調映像(DWI)データ、前記治療前の貫流強調映像(PWI)データ及び前記第2拡散強調映像(DWI)データから、関心領域を選択する段階と、を含む、請求項3に記載の脳組織病変分布予測方法。
  5. 前記モデル学習段階は、
    前記脳映像データから、正常部位に対応する対称領域を選択する段階と、
    前記対称領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得する段階と、をさらに含み、
    前記対称領域は、第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データについて選択される、請求項3に記載の脳組織病変分布予測方法。
  6. 前記出力段階は、
    前記入力データを、前記失敗予測モデルに入力し、前記対象者に対する再開通治療失敗後の病変分布に係わる情報を含む第1出力映像データを生成する第1出力段階と、
    前記入力データを、前記成功予測モデルに入力し、前記対象者に対する再開通治療成功後の病変分布に係わる情報を含む第2出力映像データを生成する第2出力段階と、を含む、請求項1に記載の脳組織病変分布予測方法。
  7. 前記出力段階は、
    前記第1出力映像データ及び前記第2出力映像データを比較し、再開通治療いかんを決定する段階をさらに含む、請求項6に記載の脳組織病変分布予測方法。
  8. 対象者の治療後の脳組織病変分布を予測する装置において、前記装置は、制御部及び出力部を含み、
    前記制御部は、
    複数の既患者の脳映像データを利用し、対象者の脳組織病変分布を予測する予測モデルを学習させ、
    前記対象者の脳映像データから入力データを獲得し、
    前記入力データを、前記予測モデルに入力し、
    前記出力部は、前記予測モデルを利用し、前記対象者に対する再開通治療後の前記病変分布に係わる情報を含む出力映像データを生成し、
    前記予測モデルは、
    複数の既患者のうち、再開通治療に成功した患者の脳映像データを利用して学習される成功予測モデル、及び前記複数の既患者のうち、再開通治療に失敗した患者の脳映像データを利用して学習される失敗予測モデルを含む、脳組織病変分布予測装置。
  9. 前記制御部は、
    複数の既患者それぞれの互いに異なる種類の脳映像データを整合し、
    前記脳映像データから変形データを計算し、前記病変部位に対応する関心領域を選択し、
    前記関心領域に対し、ボクセル別に、病変該当いかんにより、既設定の値にラベリングし、
    前記関心領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得する、請求項8に記載の脳組織病変分布予測装置。
  10. 整合される前記脳映像データは、
    治療前に獲得された第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データ、及び治療後に獲得された第2拡散強調映像(DWI)データを含む、請求項9に記載の脳組織病変分布予測装置。
  11. 前記制御部は、
    前記第1拡散強調映像(DWI)データから、見掛け拡散係数(ADC)を計算し、
    前記治療前の貫流強調映像(PWI)データから、rTTP(relative time to peak)を計算し、rTTPマップを獲得し、
    前記第1拡散強調映像(DWI)データ、前記治療前の貫流強調映像(PWI)データ及び前記第2拡散強調映像(DWI)データから、関心領域を選択する、請求項10に記載の脳組織病変分布予測装置。
  12. 前記制御部は、
    前記脳映像データから、正常部位に対応する対称領域を選択し、
    前記対称領域に対し、ボクセル別に、前記変形データを抽出し、学習用入力データを獲得し、
    前記対称領域は、第1拡散強調映像(DWI)データ、治療前の貫流強調映像(PWI)データについて選択される、請求項10に記載の脳組織病変分布予測装置。
  13. 前記出力部は、
    前記失敗予測モデルに入力された前記入力データに基づき、前記対象者に対する再開通治療失敗後の病変分布に係わる情報を含む第1出力映像データを生成し、
    前記成功予測モデルに入力された前記入力データに基づき、前記対象者に対する再開通治療成功後の病変分布に係わる情報を含む第2出力映像データを生成する、請求項8に記載の脳組織病変分布予測装置。
  14. 前記出力部は、
    前記第1出力映像データ及び前記第2出力映像データを比較し、前記対象者に対する再開通治療いかんを決定する、請求項13に記載の脳組織病変分布予測装置。
  15. コンピュータを利用し、請求項8ないし14のうちいずれか1項に記載の方法を実行するために媒体に保存されたコンピュータプログラム。
JP2020189885A 2020-06-22 2020-11-13 脳組織病変分布予測方法、その装置及びそのコンピュータプログラム Active JP7132309B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200075985A KR102403651B1 (ko) 2020-06-22 2020-06-22 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램
KR10-2020-0075985 2020-06-22

Publications (2)

Publication Number Publication Date
JP2022002073A true JP2022002073A (ja) 2022-01-06
JP7132309B2 JP7132309B2 (ja) 2022-09-06

Family

ID=79022690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189885A Active JP7132309B2 (ja) 2020-06-22 2020-11-13 脳組織病変分布予測方法、その装置及びそのコンピュータプログラム

Country Status (3)

Country Link
US (1) US20210393212A1 (ja)
JP (1) JP7132309B2 (ja)
KR (2) KR102403651B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163444A1 (ko) * 2022-02-25 2023-08-31 재단법인 아산사회복지재단 Ndt 정밀 뇌 영상 생성 방법 및 장치
CN117152128B (zh) * 2023-10-27 2024-02-27 首都医科大学附属北京天坛医院 神经影像的病灶识别方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190238621A1 (en) * 2009-10-19 2019-08-01 Surgical Theater LLC Method and system for simulating surgical procedures
JP2020092660A (ja) * 2018-12-13 2020-06-18 国立研究開発法人国立循環器病研究センター 脳梗塞発症リスク予測方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102001398B1 (ko) * 2018-01-25 2019-07-18 재단법인 아산사회복지재단 기계학습을 통한 뇌질환 상태변화 예측방법, 장치 및 프로그램
KR102214123B1 (ko) * 2020-02-17 2021-03-08 주식회사 제이엘케이 인공지능 기반 pwi-dwi 미스매치 병변 추출 및 통합 평가 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190238621A1 (en) * 2009-10-19 2019-08-01 Surgical Theater LLC Method and system for simulating surgical procedures
JP2020092660A (ja) * 2018-12-13 2020-06-18 国立研究開発法人国立循環器病研究センター 脳梗塞発症リスク予測方法

Also Published As

Publication number Publication date
KR20220077114A (ko) 2022-06-08
KR102472540B1 (ko) 2022-12-01
KR20210157948A (ko) 2021-12-30
KR102403651B1 (ko) 2022-05-31
JP7132309B2 (ja) 2022-09-06
US20210393212A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
JP7090546B2 (ja) 灌流デジタルサブトラクション血管造影
JP6859445B2 (ja) 脳卒中の診断及び予後予測方法システム及びその作動方法
Backhausen et al. Best practices in structural neuroimaging of neurodevelopmental disorders
KR102472540B1 (ko) 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램
US20040106864A1 (en) Method of predicting stroke evolution utilising mri
Park et al. Segmentation of perivascular spaces in 7 T MR image using auto-context model with orientation-normalized features
KR102344157B1 (ko) 개인 맞춤형 뇌졸중 진단을 위한 임상 인자 및 의료 영상 처리 시스템
Hachaj et al. CAD system for automatic analysis of CT perfusion maps
Winder et al. Automatic arterial input function selection in CT and MR perfusion datasets using deep convolutional neural networks
Chen et al. Quantification of morphometry and intensity features of intracranial arteries from 3D TOF MRA using the intracranial artery feature extraction (iCafe): A reproducibility study
KR20200062656A (ko) 의료 영상으로부터 뇌혈관 나이를 추정하는 방법 및 시스템
Rachmadi et al. Limited one-time sampling irregularity map (LOTS-IM) for automatic unsupervised assessment of white matter hyperintensities and multiple sclerosis lesions in structural brain magnetic resonance images
KR20220110466A (ko) 뇌경색 볼륨 계산 기반의 뇌경색 예측 방법 및 그를 위한 장치
KR102447400B1 (ko) 딥러닝 모델을 이용한 병변 영역 추출 기반의 뇌경색 예측 방법 및 그를 위한 장치
CN113939224B (zh) 椎动脉夹层风险评估方法、计算机设备和存储介质
KR102582295B1 (ko) 머신 러닝 기반의 뇌경색 치료 여부 결정 방법, 장치 및 컴퓨터 프로그램
CN112784928A (zh) Dsa影像识别方法、装置及存储介质
WO2019190641A1 (en) System and method for evaluation of dynamic data
TW202111617A (zh) 區域性腦年齡預測之方法、非暫時性電腦可讀媒體及設備
KR102043829B1 (ko) 병변 발생 시점 추정 방법, 장치 및 프로그램
US20230089375A1 (en) 3d image analysis platform for neurological conditions
KR102447401B1 (ko) 뇌경색 심각도 기반의 뇌경색 예측 방법 및 그를 위한 장치
US10478069B2 (en) Method for estimating time of occurrence of infarct on basis of brain image
Seymour et al. Predicting hematoma expansion after spontaneous intracranial hemorrhage through a radiomics based model
US20230316716A1 (en) Systems and methods for automated lesion detection using magnetic resonance fingerprinting data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7132309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150