KR20190132832A - Method and apparatus for predicting amyloid positive or negative based on deep learning - Google Patents

Method and apparatus for predicting amyloid positive or negative based on deep learning Download PDF

Info

Publication number
KR20190132832A
KR20190132832A KR1020180057866A KR20180057866A KR20190132832A KR 20190132832 A KR20190132832 A KR 20190132832A KR 1020180057866 A KR1020180057866 A KR 1020180057866A KR 20180057866 A KR20180057866 A KR 20180057866A KR 20190132832 A KR20190132832 A KR 20190132832A
Authority
KR
South Korea
Prior art keywords
image
negative
region
deep learning
predicting
Prior art date
Application number
KR1020180057866A
Other languages
Korean (ko)
Other versions
KR102173197B1 (en
Inventor
성준경
김정훈
서상원
Original Assignee
고려대학교 산학협력단
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단, 사회복지법인 삼성생명공익재단 filed Critical 고려대학교 산학협력단
Priority to KR1020180057866A priority Critical patent/KR102173197B1/en
Publication of KR20190132832A publication Critical patent/KR20190132832A/en
Application granted granted Critical
Publication of KR102173197B1 publication Critical patent/KR102173197B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

The present invention relates to a method for predicting amyloid positive or negative based on deep learning which improves accuracy of determination of amyloid positive or negative. According to an embodiment of the present invention, the method for predicting amyloid positive or negative based on deep learning comprises: a preprocessing step of generating a slice image from a first and a second brain photographing image and a mask for the slice image based on a determination reference area for predicting amyloid positive or negative; a step of generating input data based on the slice image and the mask generated in the preprocessing step by using deep learning or machine learning; a step of extracting and learning a score for predicting amyloid positive or negative from the input data generated by using the deep learning or the machine learning; and a step of generating an algorithm model for diagnosing amyloid positive or negative based on the score extracted and learned by using the deep learning or the machine learning, and determining amyloid positive or negative by the generated algorithm model.

Description

딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법 및 장치{METHOD AND APPARATUS FOR PREDICTING AMYLOID POSITIVE OR NEGATIVE BASED ON DEEP LEARNING}METHOD AND APPARATUS FOR PREDICTING AMYLOID POSITIVE OR NEGATIVE BASED ON DEEP LEARNING}

본 발명은 딥러닝을 기반으로 하여 아밀로이드 양성 또는 음성을 예측하기 위한 방법 및 장치에 관한 것으로, 더욱 상세하게는 뇌질환 진단을 위한 뇌촬영 영상 중 하나인 아밀로이드 페트(PET) 영상을 활용하여 딥러닝을 통해 인간의 직관과 유사한 관점에서 아밀로이드 양성 또는 음성을 예측하고자 하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and apparatus for predicting amyloid positive or negative on the basis of deep learning, and more particularly, deep learning using amyloid PET (PET) image, which is one of brain imaging images for diagnosing brain disease. The present invention relates to a method and system for predicting amyloid positive or negative from a similar point of view to human intuition.

최근 과학 기술 및 영상 촬영 기법의 발전으로 뇌질환을 진단 및 예측하기 위한 뇌촬영 기술로서 컴퓨터 단층촬영(computed tomography, CT), 자기공명 영상촬영(magnetic resonance imaging, MRI), 양전자단층영상촬영(positron emission tomography, PET) 등이 개발되었다. 이 중 알츠하이머 병, 치매 등을 포함한 퇴행성 뇌질환을 진단하는데에는 아밀로이드 침착 여부를 확인할 수 있는 아밀로이드 페트 검사가 효과적인 것으로 알려져 있다.Recent advances in science and imaging techniques have enabled computerized tomography (CT), magnetic resonance imaging (MRI), and positron emission tomography (positron) to diagnose and predict brain diseases. emission tomography (PET). Among them, amyloid PET test is known to be effective in diagnosing degenerative brain diseases including Alzheimer's disease and dementia.

아밀로이드 페트 검사는 단백질의 대사과정에 이상이 발생하여 생성되는 비정상적인 형태의 아밀로이드가 뇌 내에 침착되어 잇는지 여부를 확인하기 위해 아밀로이드에만 반응하는 특수조영제를 체내로 주사한 이후 페트 촬영을 하여 침착 여부에 따라 양성 또는 음성 여부를 판단하는 것이다.Amyloid PET test is to detect whether abnormal form of amyloid, which is produced by abnormality in protein metabolism, is deposited in the brain and injected with special contrast agent that only reacts with amyloid. It is to determine whether it is positive or negative.

종래에는 이러한 아밀로이드 페트 영상을 통한 진단을 위해 환자의 촬영된 아밀로이드 페트 영상 중 출력이 선명하거나 침착 여부의 분별이 용이한 영상을 임상의 등이 직접 선택하는 과정을 통해 수행되었다. 이러한 과정을 통한 아밀로이드 페트 영상의 선택은 임상의 등이 다수의 아밀로이드 페트 영상을 일일이 검증하고 확인해야 하므로, 상당한 시간이 소요되며 진단에 필요한 아밀로이드 페트 영상의 정확한 선별이 어려운 문제가 있다.Conventionally, a clinician directly selects an image of a patient's photographed amyloid PET image that has a clear output or easy deposition to diagnose the amyloid PET image. Since the selection of amyloid PET images through such a process requires a clinician to verify and confirm a large number of amyloid PET images, there is a problem that accurate selection of amyloid PET images required for diagnosis is difficult.

또한, 종래에는 선택된 아밀로이드 페트 영상에 대한 분석을 위해 페트 영상의 특징을 추출함에 있어서 미리 정의된 특징추출 방법론을 사용하므로, 새로운 환경 또는 조건을 포함한 데이터를 적절히 처리하지 못하며, 이에 따라 적절한 아밀로이드 양성 또는 음성 여부에 대한 예측을 하기 어려운 문제가 있다. In addition, since a conventional feature extraction methodology is used in extracting a feature of a pet image for analysis of a selected amyloid PET image, it does not properly process data including a new environment or condition, and thus appropriate amyloid positive or There is a problem that is difficult to predict whether the voice.

일본 등록특허공보 제5468905호 (2014.02.07)Japanese Patent Publication No. 5468905 (2014.02.07)

본 발명은 전술한 바와 같은 문제점을 해결하기 위한 것으로서, 인간의 판단에 의해 선택 또는 파악되던 종래의 뇌촬영 영상 분석 과정을 딥러닝 또는 머신러닝을 이용하여 아밀로이드 페트를 포함한 뇌촬영 영상의 특징 및 스코어 추출 등의 과정을 통해 자동화할 수 있는 방법 및 장치를 제공함에 목적이 있다.The present invention is to solve the problems described above, the features and scores of brain imaging images including amyloid PET using deep learning or machine learning in the conventional brain imaging image analysis process that was selected or identified by human judgment It is an object of the present invention to provide a method and apparatus that can be automated through a process such as extraction.

또한, 본 발명은 딥러닝 또는 머신러닝을 이용하여 아밀로이드 페트를 포함한 뇌촬영 영상의 영역별 특징 등에 대한 지속적인 학습 과정을 통해 아밀로이드 양성 또는 음성 판단의 정확성을 향상시킴으로써, 아밀로이드 양성 또는 음성에 대한 보다 신뢰도 높은 예측이 수행될 수 있도록 하는 방법 및 장치를 제공함에 목적이 있다.In addition, the present invention improves the accuracy of amyloid positive or negative judgment through continuous learning process for the region-specific features of brain imaging images including amyloid PET using deep learning or machine learning, thereby increasing the reliability of amyloid positive or negative It is an object of the present invention to provide a method and apparatus for enabling high prediction to be performed.

본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 방법은, 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스(slice) 영상 및 슬라이스 영상에 대한 마스크(mask)를 생성하는 전처리 단계, 딥러닝 또는 머신러닝을 이용하여 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하는 단계, 딥러닝 또는 머신러닝을 이용하여 생성된 입력 데이터로부터 아밀로이드 양성 또는 음성을 예측하기 위한 스코어(score)를 추출 및 학습하는 단계 및 딥러닝 또는 머신러닝을 이용하여 추출 및 학습된 스코어를 기초로 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하는 단계를 포함할 수 있다.A method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention, the first brain imaging image and the second based on the reference region for predicting amyloid positive or negative A preprocessing step of generating a slice image and a mask for the slice image from the brain imaging image, and generating input data based on the slice image and the mask generated in the preprocessing step using deep learning or machine learning. Extracting and learning a score for predicting amyloid positive or negative from input data generated using deep learning or machine learning, and based on the extracted and learned score using deep learning or machine learning. Create an algorithmic model for diagnosing positive or negative, and generate the It may include determining the amyloid positive or negative through.

본 발명의 일 실시 예에 따른 전처리 단계는, 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 단계, 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 단계, 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하는 단계, 정합 영상으로부터 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 단계 및 제 1 슬라이스 영상의 판단기준영역에 대한 마스크를 생성하는 단계를 포함할 수 있으며, 판단기준영역은 판단기초영역을 포함할 수 있다.The preprocessing step according to an embodiment of the present invention may include generating a split image of the first brain image, generating a matched image of the first brain image and the second brain image, and generating the split image. Selecting a first slice image based on an output state of the determination base region, extracting a second slice image corresponding to the first slice image from the registration image, and generating a mask for the determination reference region of the first slice image The determination reference area may include a determination basic area.

본 발명의 일 실시 예에 따른 제 1 뇌촬영 영상은 MRI T1 볼륨(volume) 이미지이고, 제 2 뇌촬영 영상은 아밀로이드 페트(PET) 볼륨 이미지이며, 판단기초영역은 측두엽 영역(temporal region), 전두엽 영역(frontal region), 후대상설전 영역(posterior cingulate-precuneus region) 및 두정엽 영역(parietal region)을 포함하고, 판단기준영역은 판단기초영역 각각의 좌측부와 우측부 및 좌측부 또는 우측부 각각의 백색질 영역(white matter, wm)과 회색질 영역(grey matter, gm)을 포함할 수 있다.According to an embodiment of the present invention, the first brain imaging image is an MRI T1 volume image, the second brain imaging image is an amyloid PET volume image, and the judgment basis region is a temporal region or a frontal lobe. And a frontal region, a posterior cingulate-precuneus region, and a parietal region, wherein the judgment reference region is a white matter region of each of the left side and the right side and the left side or the right side of each of the basal regions. white matter (wm) and gray matter (gm).

본 발명의 일 실시 예에 따른 입력 데이터를 생성하는 단계는, 딥러닝 또는 머신러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징(feature) 데이터를 추출하는 단계 및 딥러닝 또는 머신러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 단계를 포함할 수 있다.The generating of input data according to an embodiment of the present disclosure may include extracting feature data of a determination reference region based on a slice image in which a mask is generated using deep learning or machine learning, and deep learning. Alternatively, the method may include extracting label data for assigning scores based on the extracted feature data using machine learning.

본 발명의 일 실시 예에 따른 특징 데이터를 추출하는 단계에서 이용되는 딥러닝 또는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함될 수 있다.A deep convolutional network (FCN) algorithm may be included in deep learning or machine learning used in the step of extracting feature data according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 스코어를 추출 및 학습하는 단계에서 이용되는 딥러닝 또는 머신러닝에는 회귀(regression) 알고리즘 및 서포트 벡터 머신(support vector machine, SVM) 알고리즘이 포함될 수 있다.Deep learning or machine learning used in the step of extracting and learning the score according to an embodiment of the present invention may include a regression algorithm and a support vector machine (SVM) algorithm.

본 발명의 일 실시 예에 따른 알고리즘 모델을 생성하고, 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하는 단계에서는, 서포트 벡터 머신 알고리즘을 이용하여 추출 및 학습된 스코어를 기초로 알고리즘 모델을 생성할 수 있다. In generating an algorithm model according to an embodiment of the present invention and determining amyloid positive or negative based on the generated algorithm model, an algorithm model may be generated based on a score extracted and learned using a support vector machine algorithm. Can be.

본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 장치는, 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스(slice) 영상 및 슬라이스 영상에 대한 마스크(mask)를 생성하는 전처리부, 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하기 위해 딥러닝을 이용하는 제 1 데이터 생성모듈 및 머신러닝을 이용하는 제 2 데이터 생성모듈을 포함하는 입력 데이터 생성부, 생성된 입력 데이터로부터 아밀로이드 양성 또는 음성을 예측하기 위한 스코어(score)를 추출 및 학습하기 위해 딥러닝을 이용하는 제 1 스코어링 모듈 및 머신러닝을 이용하는 제 2 스코어링 모듈을 포함하는 스코어링부 및 추출 및 학습된 스코어를 기초로 하여 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하기 위해 딥러닝을 이용하는 제 1 양음성 판단모듈 및 머신러닝을 이용하는 제 2 양음성 판단모듈을 포함하는 아밀로이드 양음성 예측부를 포함할 수 있다.The apparatus for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention, the first brain imaging image and the second based on the reference region for predicting amyloid positive or negative Preprocessing unit for generating a slice image and a mask for the slice image from the brain image, the first data generation using deep learning to generate input data based on the slice image and the mask generated in the preprocessing step An input data generator comprising a module and a second data generation module using machine learning; a first scoring module using deep learning to extract and learn a score for predicting amyloid positive or negative from the generated input data And a scoring unit and a second scoring module using machine learning; Generating an algorithmic model for diagnosing amyloid positive or negative based on the wet score, and using the first positive and negative judgment module and machine learning using deep learning to determine amyloid positive or negative through the generated algorithm model. 2 may include an amyloid positive voice prediction unit including a positive voice determination module.

본 발명의 일 실시 예에 따른 전처리부는, 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 영상 분할부, 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 영상 정합부, 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하고, 정합 영상으로부터 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 슬라이스 영상 생성부 및 제 1 슬라이스 영상의 판단기준영역에 대한 마스크를 생성하는 영상 마스크 생성부를 포함할 수 있으며, 판단기준영역은 판단기초영역을 포함할 수 있다.The preprocessor according to an embodiment of the present invention, the image segmentation unit for generating a split image for the first brain image, the image registration unit for generating a registration image for the first brain image and the second brain image, the segmentation A slice image generator for selecting a first slice image based on the output state of the determination base region for the image, and extracting a second slice image corresponding to the first slice image from the matched image, and a determination reference region of the first slice image. The image mask generator may be configured to generate a mask, and the determination reference region may include a determination basic region.

본 발명의 일 실시 예에 따른 제 1 뇌촬영 영상은 MRI T1 볼륨(volume) 이미지이고, 제 2 뇌촬영 영상은 아밀로이드 페트(PET) 볼륨 이미지이며, 판단기초영역은 측두엽 영역(temporal region), 전두엽 영역(frontal region), 후대상설전 영역(posterior cingulate-precuneus region) 및 두정엽 영역(parietal region)을 포함하고, 판단기준영역은 판단기초영역 각각의 좌측부와 우측부 및 좌측부 또는 우측부 각각의 백색질 영역(white matter, wm)과 회색질 영역(grey matter, gm)을 포함할 수 있다.According to an embodiment of the present invention, the first brain imaging image is an MRI T1 volume image, the second brain imaging image is an amyloid PET volume image, and the judgment basis region is a temporal region or a frontal lobe. And a frontal region, a posterior cingulate-precuneus region, and a parietal region, wherein the judgment reference region is a white matter region of each of the left side and the right side and the left side or the right side of each of the basal regions. white matter (wm) and gray matter (gm).

본 발명의 일 실시 예에 따른 제 1 데이터 생성모듈은, 딥러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징(feature) 데이터를 추출하는 제 1 특징 데이터 추출부 및 딥러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 제 1 레이블 데이터 추출부를 포함하며,The first data generation module according to an embodiment of the present disclosure may include a first feature data extractor and a deep extracting feature data for a determination reference region based on a slice image in which a mask is generated using deep learning. A first label data extracting unit extracting label data for assigning scores based on the feature data extracted using running;

본 발명의 일 실시 예에 따른 제 2 데이터 생성모듈은, 머신러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징(feature) 데이터를 추출하는 제 2 특징 데이터 추출부 및 머신러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 제 2 레이블 데이터 추출부를 포함할 수 있다.The second data generation module according to an embodiment of the present invention may include a second feature data extractor and a machine for extracting feature data of a determination reference region based on a slice image in which a mask is generated using machine learning. The apparatus may include a second label data extractor configured to extract label data for assigning scores based on the feature data extracted using the learning.

본 발명의 일 실시 예에 따른 제 1 특징 데이터 추출부에서 이용되는 딥러닝 또는 제 2 특징 데이터 추출부에서 이용되는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함될 수 있다.In the deep learning used in the first feature data extractor or the machine learning used in the second feature data extractor according to an embodiment of the present invention, a FCN (Fully Convolutional Network) algorithm may be included.

본 발명의 일 실시 예에 따른 스코어링부에서 이용되는 딥러닝 또는 머신러닝에는 회귀(regression) 알고리즘 및 서포트 벡터 머신(support vector machine, SVM) 알고리즘이 포함될 수 있다.Deep learning or machine learning used in the scoring unit according to an embodiment of the present invention may include a regression algorithm and a support vector machine (SVM) algorithm.

본 발명의 일 실시 예에 따른 아밀로이드 양음성 예측부에서는, 서포트 벡터 머신 알고리즘을 이용하여 추출 및 학습된 스코어를 기초로 알고리즘 모델을 생성할 수 있다.In the amyloid positive-negative prediction unit according to an embodiment of the present invention, an algorithm model may be generated based on the scores extracted and learned using a support vector machine algorithm.

한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.Meanwhile, according to an embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for executing the above-described method on a computer can be provided.

본 발명의 일 실시 예로서 제공되는 예측 방법 및 장치에 따르면, 딥러닝 또는 머신러닝을 이용하여 아밀로이드 양성 또는 음성을 예측하기 위한 전 과정을 자동화 할 수 있어 사용자의 편의성을 보다 향상시킬 수 있다.According to the prediction method and apparatus provided as an embodiment of the present invention, the entire process for predicting amyloid positive or negative using deep learning or machine learning can be automated to further improve user convenience.

또한, 종래 기술과 같이 뇌촬영 영상에 대한 인간의 판단에 따라 아밀로이드 양성 또는 음성 여부를 진단하는 것이 아닌 딥러닝 또는 머신러닝을 이용하여 아밀로이드 페트를 포함한 뇌촬영 영상의 영역별 특징을 분석하여 판단하는 것이므로, 아밀로이드 양성 또는 음성 여부에 대한 예측 결과의 신뢰성 및 정확성을 보다 향상시킬 수 있다.Also, rather than diagnosing amyloid positive or negative according to the human judgment on the brain imaging image as in the prior art, it is determined by analyzing features of the region of the brain imaging image including amyloid PET using deep learning or machine learning. As such, the reliability and accuracy of prediction results for amyloid positive or negative can be further improved.

더불어, 딥러닝 또는 머신러닝을 이용하여 인간의 직관과 유사한 관점에서 아밀로이드 양성 또는 음성 여부의 예측이 가능하므로, 뇌촬영 영상 데이터의 출처에 상관없이 멀티센서 또는 멀티디바이스에 용이하게 적용될 수 있다.In addition, since deep learning or machine learning can be used to predict amyloid positive or negative from a viewpoint similar to human intuition, it can be easily applied to multi-sensors or multi-devices regardless of the source of brain imaging data.

도 1은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법을 나타낸 순서도이다.
도 2는 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법 중 전처리 단계를 나타낸 순서도이다.
도 3은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법 중 입력 데이터 생성 단계를 나타낸 순서도이다.
도 4는 본 발명의 일 실시 예에 따라 딥러닝을 이용하여 아밀로이드 양성 또는 음성을 예측하는 과정을 나타낸다.
도 5는 본 발명의 일 실시 예에 따라 머신러닝을 이용하여 아밀로이드 양성 또는 음성을 예측하는 과정을 나타낸다.
도 6은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치를 나타낸 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치에 포함된 전처리부를 나타낸 블록도이다.
도 8은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치의 예측과정 나타낸 블록도이다.
1 is a flowchart illustrating a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.
2 is a flowchart illustrating a pretreatment step of a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.
3 is a flowchart illustrating an input data generation step of a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.
4 illustrates a process of predicting amyloid positive or negative by using deep learning according to an embodiment of the present invention.
5 illustrates a process of predicting amyloid positive or negative by using machine learning according to an embodiment of the present invention.
6 is a block diagram showing an apparatus for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.
7 is a block diagram illustrating a preprocessor included in an apparatus for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.
8 is a block diagram illustrating a prediction process of an apparatus for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used herein will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법을 나타낸 순서도이다.1 is a flowchart illustrating a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 방법은, 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스(slice) 영상 및 슬라이스 영상에 대한 마스크(mask)를 생성하는 전처리 단계(S100), 딥러닝 또는 머신러닝을 이용하여 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하는 단계(S200), 딥러닝 또는 머신러닝을 이용하여 생성된 입력 데이터로부터 아밀로이드 양성 또는 음성을 예측하기 위한 스코어(score)를 추출 및 학습하는 단계(S300) 및 딥러닝 또는 머신러닝을 이용하여 추출 및 학습된 스코어를 기초로 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하는 단계(S400)를 포함할 수 있다.Referring to FIG. 1, a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention may include: a first method based on a determination reference region for predicting amyloid positive or negative; Preprocessing step (S100) of generating a mask for the slice image and the slice image from the brain image and the second brain image, the slice image and the mask generated in the preprocessing step using deep learning or machine learning Generating input data based on the step S200, extracting and learning a score for predicting amyloid positive or negative from the input data generated using deep learning or machine learning (S300), and deep learning Or generate algorithmic models for diagnosing amyloid positive or negative based on the extracted and learned scores using machine learning. Through the, and the resulting algorithm model may include the step (S400) to determine the amyloid positive or negative.

이때, 판단기준영역이란 아밀로이드 양성 또는 음성을 예측하기 위해 필요한 입력 데이터의 생성, 스코어의 추출 및 학습에 기준이 되는 뇌촬영 영상에서의 뇌의 영역들을 지칭할 수 있다. 다시 말해서, 판단기준영역이란 아밀로이드 양성 또는 음성을 예측하기 위한 각 과정에서 전반적인 기준으로서 뇌촬영 영상에서 출력되는 뇌의 영역들을 의미하며, 이러한 판단기준영역은 후술할 판단기초영역과 함께 보다 구체적으로 설명하도록 한다.In this case, the determination reference region may refer to regions of the brain in the brain imaging image which is a reference for generating input data, extracting scores, and learning required to predict amyloid positive or negative. In other words, the judgment reference region refers to regions of the brain that are output from the brain imaging image as an overall criterion in each process for predicting amyloid positive or negative, and these judgment reference regions are described in more detail together with the judgment basis region to be described later. Do it.

본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 방법은 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 전처리 단계(S100)가 공통적으로 수행된 이후에 딥러닝을 이용하는 과정과 머신러닝을 이용하는 과정으로 크게 분류될 수 있다. 다시 말해서, 전처리 단계(S100)가 수행되고 나면 딥러닝을 이용하여 입력 데이터를 생성하고 스코어를 추출 및 학습하여 알고리즘 모델을 생성하고 양음성을 판단하는 과정과 머신러닝을 이용하여 입력 데이터를 생성하고 스코어를 추출 및 학습하여 알고리즘 모델을 생성하고 양음성을 판단하는 과정이 별개로 수행될 수 있다. 예를 들어, 머신러닝을 이용하여 입력 데이터를 생성하고, 머신러닝을 이용하여 스코어를 추출 및 학습할 수는 없다. In the method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention, a preprocessing step (S100) for a first brain image and a second brain image is performed in common. Subsequently, it may be broadly classified into a process using deep learning and a process using machine learning. In other words, after the preprocessing step S100 is performed, input data is generated using deep learning, an algorithm model is generated by extracting and learning a score, and a process of determining positive sound and input data is generated using machine learning. Extracting and learning the scores to generate an algorithmic model and determine the positive sound may be performed separately. For example, machine learning may not be used to generate input data, and machine learning may not be used to extract and learn scores.

즉, 딥러닝을 이용하는 경우 딥러닝을 이용하는 과정이 일체로 수행되는 것이고, 머신러닝을 이용하는 경우 머신러닝을 이용하는 과정이 일체로 수행될 수 있다. 따라서, 딥러닝을 이용하여 각 단계를 수행하는 주체(i.e. 제 1 데이터 생성모듈(210), 제 1 스코어링 모듈(310), 제 1 양음성 판단모듈(410))와 머신러닝을 이용하여 각 단계를 수행하는 주체(i.e. 제 2 데이터 생성모듈(220), 제 2 스코어링 모듈(320), 제 2 양음성 판단모듈(420))는 각각 별개로 이루어져 있으며, 딥러닝을 이용하는 수행 주체와 머신러닝을 이용하는 수행 주체 간의 데이터 전송 등은 이루어지지 않을 수 있다. 보다 구체적인 내용은 후술할 도 8을 참조하여 설명하도록 한다.That is, in the case of using deep learning, the process of using deep learning is integrally performed, and in the case of using machine learning, the process of using machine learning may be integrally performed. Therefore, the subjects performing each step using deep learning (ie, the first data generation module 210, the first scoring module 310, and the first positive voice determination module 410) and each step using machine learning The subjects (ie, the second data generation module 220, the second scoring module 320, and the second positive voice determination module 420) for performing the operation are separately formed, and perform the subject and machine learning using deep learning. Data transmission between performing subjects to be used may not be performed. More details will be described with reference to FIG. 8 to be described later.

도 2는 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법 중 전처리 단계(S100)를 나타낸 순서도이다.2 is a flowchart showing a pre-processing step (S100) of a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시 예에 따른 전처리 단계(S100)는, 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 단계(S110), 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 단계(S120), 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하는 단계(S130), 정합 영상으로부터 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 단계(S140) 및 제 1 슬라이스 영상의 판단기준영역에 대한 마스크를 생성하는 단계(S150)를 포함할 수 있으며, 판단기준영역은 판단기초영역을 포함할 수 있다.Referring to FIG. 2, the preprocessing step (S100) according to an embodiment of the present invention may include generating a split image for the first brain imaging image (S110), a first brain imaging image, and a second brain imaging image. Generating a matched image for the first slice image based on an output state of the determination base region for the split image (S130); and a second slice image corresponding to the first slice image from the matched image. And extracting a mask for the determination reference region of the first slice image (S150), and the determination reference region may include a determination basic region.

이 때, 본 발명의 일 실시 예에 따른 제 1 뇌촬영 영상은 MRI T1 볼륨(volume) 이미지이고, 제 2 뇌촬영 영상은 아밀로이드 페트(PET) 볼륨 이미지일 수 있다.In this case, the first brain imaging image according to an embodiment of the present invention may be an MRI T1 volume image, and the second brain imaging image may be an amyloid PET volume image.

예를 들어, 제 1 뇌촬영 영상이 MRI T1 볼륨 이미지인 경우, 이에 대한 분할 영상은 MRI T1 분할 이미지로서, 뇌실(ventricle) 이미지, 측두엽(temporal) 이미지, 쐐기앞소엽(frontal precuneus) 이미지 및 두정엽(parietal) 이미지일 수 있다. 전술한 예시와 같이 MRI T1 분할 이미지가 생성되는 것은 판단기초영역의 확인이 용이하도록 하기 위함이다.For example, if the first brain imaging image is an MRI T1 volume image, the segmented image is an MRI T1 segmented image, which is a ventricular image, a temporal image, a frontal precuneus image, and a parietal lobe. It may be a (parietal) image. As described above, the MRI T1 split image is generated to facilitate identification of the determination basis region.

본 발명의 일 실시 예에 따른 판단기초영역이란 슬라이스 영상을 선택 및 추출하기 위해 필요한 뇌촬영 영상에서 출력되는 뇌의 영역들을 지칭할 수 있다. 보다 구체적으로, 판단기초영역은 아밀로이드의 양성 또는 음성을 예측할 수 있는 병변 기초부위로 사용될 수 있는 뇌의 영역을 의미한다. 예를 들어, 판단기초영역은 측두엽 영역(temporal region), 전두엽 영역(frontal region), 후대상설전 영역(posterior cingulate-precuneus region) 및 두정엽 영역(parietal region)을 포함할 수 있다. 따라서, 분할 영상이 MRI T1 분할 이미지(i.e. 뇌실, 측두엽, 쐐기앞소엽, 두정엽 이미지)인 경우, 제 1 슬라이스 영상은 MRI T1 분할 이미지 중 판단기초영역(i.e. 측두엽, 전두엽, 후대상설전 및 두정엽 영역)의 출력 상태가 가장 좋은 분할 영상으로부터 선택될 수 있다.The determination basis region according to an embodiment of the present invention may refer to regions of the brain output from the brain imaging image required for selecting and extracting slice images. More specifically, the judgment basis region refers to an area of the brain that can be used as a lesion basis for predicting positive or negative amyloid. For example, the judgment basis region may include a temporal region, a frontal region, a posterior cingulate-precuneus region, and a parietal region. Therefore, when the segmented image is an MRI T1 segmented image (ie ventricle, temporal lobe, anterior wedge lobe, parietal lobe image), the first slice image is a judgment base region (ie temporal lobe, frontal lobe, posterior capsular and parietal lobe region) of the MRI T1 segmented image. The output state of can be selected from the best split image.

본 발명의 일 실시 예에 따른 판단기준영역은 전술한 판단기초영역을 포함하는 것으로, 판단기초영역의 확장 형태로 이해될 수 있다. 즉, 판단기초영역은 아밀로이드 양성 또는 음성을 예측하기 위해 사용되는 기본적인 데이터를 생성하기 위한 기준이라면, 판단기준영역은 판단기초영역을 기반으로 아밀로이드 양성 또는 음성을 예측하기 위해 딥러닝 또는 머신러닝을 이용하는 전반적인 과정에서 활용하기 위한 기준으로서 판단기초영역을 포함한 아밀로이드 양성 또는 음성을 예측하기 위한 뇌의 영역들을 의미할 수 있다.The determination reference region according to an embodiment of the present invention includes the above-described determination basic region, which can be understood as an extension of the determination basic region. In other words, if the judgment basis region is a criterion for generating basic data used to predict amyloid positive or negative, the judgment reference region uses deep learning or machine learning to predict amyloid positive or negative based on the judgment basis region. As a criterion for use in the overall process, it may refer to areas of the brain for predicting amyloid positive or negative including a judgment basis area.

예를 들어, 판단기준영역은 판단기초영역 각각의 좌측부와 우측부 및 좌측부 또는 우측부 각각의 백색질 영역(white matter, wm)과 회색질 영역(grey matter, gm)을 포함할 수 있다. 판단기초영역이 측두엽 영역, 전두엽 영역, 후대상설전 영역 및 두정엽 영역으로 총 4개의 영역이라면, 판단기준영역은 각 영역별 좌측부와 우측부 및 좌측부 또는 우측부 각각의 백색질 영역과 회색질 영역을 포함할 수 있으므로 총 16개의 영역일 수 있다. 따라서, 전술한 예시에 따라 제 1 슬라이스 영상에 마스크가 생성될 경우, 마스크는 판단기초영역 별 좌측부와 우측부 및 좌측추 또는 우측부 각각의 백색질 영역 또는 회색질 영역을 포함하여 총 16개의 영역에 생성될 수 있다.For example, the determination reference region may include a white matter region (wm) and a gray matter region (gm) of each of the left side portion and the right side portion of each of the determination basis regions, and the left side portion or the right side portion, respectively. If the judgment basis region is a total of four regions, the temporal lobe region, the frontal lobe region, the posterior target lingual region and the parietal lobe region, the judgment reference region may include the white and gray regions of each of the left, right, and left or right portions of each region. Therefore, there may be a total of 16 areas. Therefore, when a mask is generated in the first slice image according to the above-described example, the mask is generated in a total of 16 areas including white areas or gray areas of each of the left and right parts and the left weight or right part of each of the determination base areas. Can be.

도 3은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법 중 입력 데이터 생성 단계(S200)를 나타낸 순서도이다.3 is a flowchart illustrating an input data generation step S200 of a method for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 입력 데이터를 생성하는 단계(S200)는, 딥러닝 또는 머신러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징(feature) 데이터를 추출하는 단계(S210) 및 딥러닝 또는 머신러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 단계(S220)를 포함할 수 있다. 따라서, 입력 데이터에는 전술한 각 단계를 통해 추출된 특징 데이터와 레이블 데이터가 포함될 수 있다.Referring to FIG. 3, in operation S200 of generating input data according to an embodiment of the present invention, a feature of a determination reference region based on a slice image in which a mask is generated using deep learning or machine learning is performed. The method may include extracting data (S210) and extracting label data for assigning scores based on the extracted feature data using deep learning or machine learning (S220). Therefore, the input data may include feature data and label data extracted through the above-described steps.

도 4는 본 발명의 일 실시 예에 따라 딥러닝을 이용하여 아밀로이드 양성 또는 음성을 예측하는 과정을 나타내며, 도 5는 본 발명의 일 실시 예에 따라 머신러닝을 이용하여 아밀로이드 양성 또는 음성을 예측하는 과정을 나타낸다.4 illustrates a process of predicting amyloid positive or negative using deep learning according to an embodiment of the present invention, and FIG. 5 illustrates predicting amyloid positive or negative using machine learning according to an embodiment of the present invention. Indicate the process.

본 발명의 일 실시 예에 따른 특징 데이터를 추출하는 단계는 딥러닝을 이용하는 경우와 머신러닝을 이용하는 경우를 구별하여 살펴보도록 한다.The step of extracting feature data according to an embodiment of the present invention looks at the case of using deep learning and the case of using machine learning.

먼저, 도 4를 참조하면, 딥러닝을 이용하여 특징 데이터를 추출하는 단계에서는 입력 데이터로서 패딩(padding) 이미지를 생성하는 단계, 제 1 슬라이스 영상에 생성된 판단기준영역에 대한 마스크에 대응되는 제 2 슬라이스 영상의 해당 영역을 추출하는 단계 및 추출된 제 2 슬라이스 영상의 해당 영역을 축소하여 패딩 이미지에 삽입하는 단계를 포함할 수 있다. 예를 들어, 딥러닝을 이용하여 특징 데이터를 추출하기 위해 먼저 입력 데이터로서 [50x50]의 -2로 패딩된 이미지를 생성할 수 있다. 다음으로, 제 1 슬라이스 영상에 생성된 판단기준영역 중 판단기초영역 별 좌측부와 우측부를 포함한 8개 영역(ex. 좌측 측두엽, 좌측 전두엽, 좌측 후대상설전, 좌측 두정엽 영역 및 우측 측두엽, 우측 전두엽, 우측 후대상설전, 우측 두정엽 영역)에 대한 마스크가 대응되는 제 2 슬라이스 영상의 영역을 추출할 수 있다. 추출된 8개 영역에 대한 제 2 슬라이스 영상의 영역을 [50x50]으로 축소하여 패딩된 이미지에 삽입할 수 있다. 이러한 과정을 통해 입력 데이터에 포함된 특징 데이터를 추출할 수 있다.First, referring to FIG. 4, in the extracting of feature data using deep learning, generating a padding image as input data, and generating a padding image corresponding to a mask for a determination reference region generated in the first slice image. And extracting a corresponding region of the two-slice image and reducing and inserting the corresponding region of the extracted second slice image into the padding image. For example, in order to extract feature data using deep learning, first, an image padded with −2 of [50 × 50] may be generated as input data. Next, eight areas including the left part and the right part of each of the judgment basis areas generated in the first slice image (eg, left temporal lobe, left frontal lobe, left posterior prelingual, left parietal lobe, and right temporal lobe, right frontal lobe, right) A region of the second slice image corresponding to the mask of the posterior prefrontal and right parietal lobe region may be extracted. The region of the second slice image of the extracted eight regions may be reduced to [50x50] and inserted into the padded image. Through this process, feature data included in the input data can be extracted.

도 5를 참조하면, 머신러닝을 이용하여 특징 데이터를 추출하는 단계에서는 제 1 슬라이스 영상에 생성된 판단기준영역에 대한 마스크의 평균 SUVR(Standard Uptake Value Ratio) 값을 추정하는 단계 및 추정된 평균 SUVR 값에 대한 정규화(normalization)을 수행하는 단계를 포함할 수 있다. 예를 들어, 머신러닝을 이용하여 특징 데이터를 추출하기 위해 제 1 슬라이스 영상의 전술한 총 16개의 판단기준영역 중 백색질 영역에 해당하는 8개의 마스크 영역(ex. 좌측 백색질 측두엽, 좌측 백색질 전두엽, 좌측 백색질 후대상설전, 좌측 백색질 두정엽 영역 및 우측 백색질 측두엽, 우측 백색질 전두엽, 우측 백색질 후대상설전, 우측 백색질 두정엽 영역)의 백색질 영역의 평균 SUVR 값을 추정할 수 있다. 또한, 전술한 총 16개의 판단기준영역에 대한 마스크의 영역별 평균 SUVR 값을 추정할 수 있다. 다음으로, 추정된 각각의 SUVR 값들을 정규화하고, 판단기준영역 별 회색질 또는 백색질 값의 레벨을 계산할 수 있다. 이러한 정규화 및 레벨 계산 과정을 통한 결과 데이터와 제 2 슬라이스 영상을 활용하면 입력 데이터에 포함된 특징 데이터를 추출할 수 있다.Referring to FIG. 5, in the extracting of feature data using machine learning, estimating an average standard uptake value ratio (SUVR) value of a mask for a determination reference region generated in a first slice image and an estimated average SUVR Performing normalization on the value. For example, in order to extract feature data using machine learning, eight mask areas (eg, left white temporal lobe, left white frontal lobe, left frontal lobe) corresponding to the white matter area among the above 16 total reference areas of the first slice image Mean SUVR values of the white matter region of the posterior epiglottis, the left parietal parietal lobe and the right parietal temporal lobe, the right parietal frontal lobe, the right parietal posterior capsule, and the right parietal parietal lobe) can be estimated. In addition, the average SUVR value for each area of the mask for the aforementioned 16 determination reference areas may be estimated. Next, the estimated SUVR values may be normalized, and the level of gray or white matter values for each reference reference region may be calculated. By using the result data and the second slice image through the normalization and level calculation process, the feature data included in the input data may be extracted.

또한, 본 발명의 일 실시 예에 따른 특징 데이터를 추출하는 단계(S210)에서 이용되는 딥러닝 또는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함될 수 있다. FCN 알고리즘은 여러 개의 컨볼루션 블록으로 구성되어 있는 딥러닝 네트워크 알고리즘으로서, 마지막에 완전히 연결된 레이어(Fully connected layer)가 없는 것이 특징이다. FCN 알고리즘은 특성상 위치정보를 소실하지 않으므로, 보다 정확한 정보를 획득할 수 있다. 이러한 FCN 알고리즘을 이용하여 전술한 특징 데이터를 추출하는 각 단계를 효과적으로 수행할 수 있다.Also, a deep convolutional network (FCN) algorithm may be included in deep learning or machine learning used in the step S210 of extracting feature data according to an embodiment of the present invention. FCN algorithm is a deep learning network algorithm that consists of several convolutional blocks, and there is no lastly fully connected layer. Since the FCN algorithm does not lose location information due to its characteristics, more accurate information can be obtained. By using the FCN algorithm, each step of extracting the aforementioned feature data can be effectively performed.

본 발명의 일 실시예에 따른 레이블 데이터를 추출하는 단계(S220)에서는 딥러닝 또는 머신러닝을 이용하는 경우 공통적으로 각각의 과정을 통해 생성된 특징 데이터에 대응되는 스코어를 할당함으로써 레이블 데이터를 추출할 수 있다. 예를 들어, 스코어는 0 내지 3의 값일 수 있다.In the extracting the label data according to an embodiment of the present invention (S220), when using deep learning or machine learning, label data may be extracted by allocating a score corresponding to the feature data generated through each process. have. For example, the score can be a value from 0 to 3.

도 1을 참조하면, 본 발명의 일 실시 예에 따라 전술한 바와 같이 입력 데이터 생성 과정(S200)이 수행된 이후에는 입력 데이터로부터 스코어를 추출 및 학습하는 단계(S300)가 수행될 수 있다. 스코어를 추출 및 학습하는 단계 역시 딥러닝을 이용하는 경우와 머신러닝을 이용하는 경우를 구체적인 예시로 구별하여 살펴보도록 한다.Referring to FIG. 1, after the input data generation process S200 is performed as described above, the step S300 of extracting and learning the score from the input data may be performed. The steps of extracting and learning the scores will also be described in detail by using deep learning and machine learning.

먼저, 도 4를 참조하면, 딥러닝을 이용하여 스코어를 추출 및 학습하는 단계에서는 회귀(regression) 알고리즘으로서 경사 하강법(Stochastic Gradient Descent, SGD)을 활용하여 스코어의 추출 및 학습을 진행할 수 있다. 이 때 손실(loss)는 평균 제곱근 오차(mean square error)를 통해 추정될 수 있으며, 출력은 선형으로 활성화(activation)되도록 할 수 있다. 경사 하강법은 하나의 학습 데이터마다 오차를 계산해 딥러닝 신경망의 가중치를 바로 조절하는 방식으로서, 한 개의 학습 데이터마다 매번 가중치를 갱신하므로 신경망의 성능이 변화하면서 학습되는 것을 특징으로 한다. 따라서, 이러한 경사 하강법을 활용하여 학습 중단 시점을 휴리스틱(heuristic)하게 선정할 수 있다.First, referring to FIG. 4, in the step of extracting and learning a score by using deep learning, the extraction and learning of the score may be performed by using a gradient gradient method (SGD) as a regression algorithm. In this case, the loss may be estimated through a mean square error, and the output may be linearly activated. Gradient descent is a method of directly adjusting the weight of a deep learning neural network by calculating an error for each learning data. Since the weight is updated every single learning data, the gradient learning is performed while the performance of the neural network changes. Therefore, by using the gradient descent method, it is possible to heuristically select a learning interruption point.

도 5를 참조하면, 머신러닝을 이용하여 스코어를 추출 및 학습하는 단계에서는 스코어를 연속값(continuous value)으로 추출하는 경우 회귀 알고리즘이 이용될 수 있으며, 스코어를 바이너리값(binary value)으로 추출하는 경우 서포트 벡터 머신(support vector machine, SVM)이 이용될 수 있다. 이 때, 서포트 벡터 머신 알고리즘은 높은 정확도를 보이는 전통적인 머신러닝 방법론으로서, 서포트 벡터라는 개념을 사용하여 최대한 일반적인 모델을 생성하는 것을 특징으로 한다. 이러한 머신러닝(회귀 알고리즘, 소포트 벡터 머신)을 이용하면, FCN 알고리즘을 이용하여 추출된 다량의 SUVR 값으로부터 용이하게 판단기준영역별 스코어를 추출 및 학습할 수 있다.Referring to FIG. 5, in the step of extracting and learning a score using machine learning, a regression algorithm may be used when the score is extracted as a continuous value, and the score is extracted as a binary value. In this case, a support vector machine (SVM) may be used. In this case, the support vector machine algorithm is a traditional machine learning methodology with high accuracy. The support vector machine algorithm generates the most general model using the concept of the support vector. Using this machine learning (regression algorithm, sopot vector machine), it is possible to easily extract and learn the score for each reference reference region from a large number of SUVR values extracted using the FCN algorithm.

전술한 과정(S300)을 통해 스코어가 추출 및 학습되면, 본 발명의 일 실시 예에 따른 알고리즘 모델을 생성하고 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하는 단계(S400)에서는, 서포트 벡터 머신 알고리즘을 이용하여 추출 및 학습된 스코어를 기초로 알고리즘 모델을 생성할 수 있다. When the score is extracted and learned through the above-described process (S300), in the step (S400) of generating an algorithm model according to an embodiment of the present invention and determining amyloid positive or negative through the generated algorithm model, the support vector machine An algorithm may be used to generate an algorithm model based on the extracted and learned scores.

즉, 서포트 벡터 머신 알고리즘을 이용하여 보다 일반적인 아밀로이드 양성 또는 음성 판단을 위한 알고리즘 모델을 생성할 수 있다. 따라서, 서포트 벡터 머신 알고리즘을 이용하여 생성된 알고리즘 모델에 아밀로이드 양성 또는 음성 판단을 위한 데이터가 입력되면 데이터의 출처(i.e. 임의의 제3자에 대한 뇌촬영 영상을 기반으로 생성된 데이터 등)에 관계없이 아밀로이드 양성 또는 음성을 보다 객관적이고 일반적인 관점에서 예측할 수 있다.That is, a support vector machine algorithm may be used to generate an algorithm model for more general amyloid positive or negative judgment. Therefore, when data for amyloid positive or negative judgment is input to an algorithm model generated using a support vector machine algorithm, it is related to the origin of the data (ie, data generated based on brain imaging images of an arbitrary third party). Can predict amyloid positive or negative from a more objective and general perspective.

또한, 뇌촬영 영상에 대한 학습이 이루어짐에 따라 알고리즘 모델의 아밀로이드 양성 또는 음성 판단의 정확성을 지속적으로 향상시킬 수 있다In addition, as learning about the brain imaging image is made, it is possible to continuously improve the accuracy of amyloid positive or negative judgment of the algorithm model.

도 6은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치(1000)를 나타낸 블록도이고, 도 7은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치(1000)에 포함된 전처리부(100)를 나타낸 블록도이다.FIG. 6 is a block diagram illustrating an apparatus 1000 for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention, and FIG. 7 is based on deep learning according to an embodiment of the present invention. It is a block diagram showing the preprocessing unit 100 included in the device 1000 for predicting amyloid positive or negative.

또한, 도 8은 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치(1000)의 예측과정 나타낸 블록도이다.8 is a block diagram illustrating a prediction process of the apparatus 1000 for predicting amyloid positive or negative based on deep learning according to an embodiment of the present invention.

도 6 및 도 8을 참조하면, 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드양성 또는 음성을 예측하기 위한 장치는, 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스 영상 및 슬라이스 영상에 대한 마스크를 생성하는 전처리부(100), 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하기 위해 딥러닝을 이용하는 제 1 데이터 생성모듈(210) 및 머신러닝을 이용하는 제 2 데이터 생성모듈(220)을 포함하는 입력 데이터 생성부(200), 생성된 입력 데이터로부터 아밀로이드 양성 또는 음성을 예측하기 위한 스코어를 추출 및 학습하기 위해 딥러닝을 이용하는 제 1 스코어링 모듈(310) 및 머신러닝을 이용하는 제 2 스코어링 모듈(320)을 포함하는 스코어링부(300) 및 추출 및 학습된 스코어를 기초로 하여 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 생성된 알고리즘 모델을 통해 아밀로이드 양성 또는 음성을 판단하기 위해 딥러닝을 이용하는 제 1 양음성 판단모듈(410) 및 머신러닝을 이용하는 제 2 양음성 판단모듈(420)을 포함하는 아밀로이드 양음성 예측부(400)를 포함할 수 있다.6 and 8, an apparatus for predicting amyloid positive or negative based on deep learning according to an embodiment of the present disclosure may include a first reference based on a determination reference region for predicting amyloid positive or negative; A preprocessing unit 100 generating a mask for the slice image and the slice image from the brain image and the second brain image, and using deep learning to generate input data based on the slice image and the mask generated in the preprocessing step. An input data generator 200 including a first data generation module 210 and a second data generation module 220 using machine learning, and extracting and learning a score for predicting amyloid positive or negative from the generated input data Including a first scoring module 310 using deep learning and a second scoring module 320 using machine learning. A first quantity using deep learning to generate an algorithm model for diagnosing amyloid positive or negative based on the scoring unit 300 and the extracted and learned scores, and to determine the amyloid positive or negative through the generated algorithm model It may include an amyloid positive voice predictor 400 including a voice judgment module 410 and a second positive voice determination module 420 using machine learning.

도 8을 참조하면, 전처리부(100)를 제외한 입력 데이터 생성부(200), 스코어링부(300) 및 아밀로이드 양음성 예측부(400)는 각각 딥러닝을 이용하는 수행모듈 및 머신러닝을 이용하는 수행모듈을 포함할 수 있으며, 딥러닝을 이용하는 수행모듈과 머신러닝을 이용하는 수행모듈은 서로 연결될 수 없다. 따라서, 제 1 데이터 생성모듈(210)에서 생성된 입력 데이터는 제 2 스코어링 모듈(320)로 전달될 수 없으며, 제 2 스코어링 모듈(320)을 통해 추출 및 학습된 스코어에 관한 데이터는 제 1 양음성 판단모듈(410)로 전달될 수 없다.Referring to FIG. 8, except for the preprocessor 100, the input data generator 200, the scoring unit 300, and the amyloid positive-negative prediction unit 400 are each a performance module using deep learning and a performance module using machine learning. It may include, the performance module using the deep learning and the performance module using the machine learning may not be connected to each other. Accordingly, input data generated by the first data generation module 210 may not be transmitted to the second scoring module 320, and data regarding scores extracted and learned through the second scoring module 320 may be transmitted in a first amount. It cannot be delivered to the voice determination module 410.

본 발명의 일 실시 예에 따르면, 사용자로부터 인가된 외부 입력 또는 데이터 처리 속도, 데이터 처리 수행중인지 여부 등에 따라 제 1 데이터 생성모듈(210) 또는 제 2 데이터 생성모듈(220)이 전처리부(100)에 의해 선택되어 전처리부(100)를 통해 생성된 기초 데이터(ex. 슬라이스 영상, 마스크 등)가 선택된 데이터 생성모듈로 전달될 수 있다. 예를 들어, 딥러닝을 이용하여 데이터를 처리하기 위한 사용자의 목적에 따라 사용자로부터 인가된 외부 입력에 의해 제 1 데이터 생성모듈(210)이 선택되어 딥러닝을 이용한 데이터 처리가 수행될 수 있다. 또한, 새로운 뇌촬영 영상이 수신되었으나 딥러닝을 이용한 데이터 처리가 이미 수행되고 있는 경우에는 자동으로 제 2 데이터 생성모듈(220)이 전처리부(100)에 의해 선택되어 머신러닝을 이용한 데이터 처리가 수행될 수 있다.According to an embodiment of the present disclosure, the first data generating module 210 or the second data generating module 220 may be configured as a preprocessor 100 according to an external input or data processing speed applied from a user, whether or not data processing is being performed. The basic data (eg, slice image, mask, etc.) selected by the preprocessing unit 100 and generated by the preprocessing unit 100 may be transferred to the selected data generation module. For example, according to a user's purpose for processing data using deep learning, the first data generation module 210 may be selected by an external input applied by the user to perform data processing using deep learning. In addition, when a new brain image is received but data processing using deep learning is already being performed, the second data generation module 220 is automatically selected by the preprocessor 100 to perform data processing using machine learning. Can be.

도 6을 참조하면, 본 발명의 일 실시 예에 따른 딥러닝을 기반으로 하는 아밀로이드양성 또는 음성을 예측하기 위한 장치는 뇌촬영 영상 및 기타 데이터를 송수신하기 위한 통신부(500) 및 뇌촬영 영상을 비롯한 모든 데이터를 저장 및 관리하기 위한 데이터베이스(600)를 더 포함할 수 있다. 즉, 본 발명의 일 실시 예에 따른 아밀로이드 양성 또는 음성을 예측하기 위한 장치(1000)는 통신부(500)를 통해 MRI 촬영 장치, 아밀로이드 PET 촬영 장치 등이 포함된 뇌촬영 장치들과 유무선 통신을 수행할 수 있으며, 통신부(500)를 통해 수신된 뇌촬영 영상뿐만 아니라 데이터 처리 과정에서 생성되는 입력 데이터, 스코어 데이터 등은 데이터베이스(600)에 생성과 즉시 저장될 수 있으며, 데이터베이스(600)에 저장된 데이터는 사용자로부터 인가된 외부 입력에 의해 삭제, 수정 등의 관리가 이루어질 수 있다.Referring to FIG. 6, an apparatus for predicting amyloid positivity or voice based on deep learning according to an embodiment of the present invention includes a communication unit 500 and a brain imaging image for transmitting and receiving brain imaging images and other data. It may further include a database 600 for storing and managing all data. That is, the apparatus 1000 for predicting amyloid positive or negative according to an embodiment of the present invention performs wired / wireless communication with brain imaging apparatuses including an MRI imaging apparatus, an amyloid PET imaging apparatus, and the like through the communication unit 500. The input data, score data, etc. generated in the data processing process as well as the brain imaging image received through the communication unit 500 may be generated and immediately stored in the database 600, and the data stored in the database 600. The deletion may be managed by an external input authorized by the user.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 전처리부(100)는, 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 영상 분할부(110), 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 영상 정합부(120), 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하고, 정합 영상으로부터 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 슬라이스 영상 생성부(130) 및 제 1 슬라이스 영상의 판단기준영역에 대한 마스크를 생성하는 영상 마스크 생성부(140)를 포함할 수 있으며, 판단기준영역은 판단기초영역을 포함할 수 있다. 또한, 전처리부(100)는 통신부(500)로부터 수신된 뇌촬영 영상을 수신하고, 마스크가 생성된 슬라이스 영상 등을 송신하기 위한 영상 송수신부(150)를 더 포함할 수 있다.Referring to FIG. 8, the preprocessing unit 100 according to an embodiment of the present disclosure may include an image splitter 110 that generates a split image for a first brain image, a first brain image, and a second brain image. An image matching unit 120 generating a registration image for the image, selecting a first slice image based on an output state of the determination base region for the split image, and a second slice image corresponding to the first slice image from the registration image. And a slice image generation unit 130 for extracting the image and the image mask generation unit 140 for generating a mask for the determination reference region of the first slice image, and the determination reference region may include the determination basis region. . In addition, the preprocessing unit 100 may further include an image transmitting and receiving unit 150 for receiving a brain imaging image received from the communication unit 500, and transmits a slice image generated by the mask.

본 발명의 일 실시 예에 따른 제 1 뇌촬영 영상은 MRI T1 볼륨 이미지이고, 제 2 뇌촬영 영상은 아밀로이드 페트 볼륨 이미지이며, 판단기초영역은 측두엽 영역, 전두엽 영역, 후대상설전 영역 및 두정엽 영역을 포함하고, 판단기준영역은 판단기초영역 각각의 좌측부, 우측부, 백색질 영역 또는 회색질 영역을 포함할 수 있다.According to an embodiment of the present invention, the first brain imaging image is an MRI T1 volume image, the second brain imaging image is an amyloid PET volume image, and the judgment base region includes a temporal lobe region, a frontal lobe region, a posterior prefrontal region, and a parietal lobe region. The determination reference region may include a left portion, a right portion, a white matter region, or a gray matter region of each of the determination basis regions.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 제 1 데이터 생성모듈(210)은, 딥러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징 데이터를 추출하는 제 1 특징 데이터 추출부 및 딥러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블 데이터를 추출하는 제 1 레이블 데이터 추출부를 포함하며, 본 발명의 일 실시 예에 따른 제 2 데이터 생성모듈(220)은, 머신러닝을 이용하여 마스크가 생성된 슬라이스 영상을 기초로 판단기준영역에 대한 특징 데이터를 추출하는 제 2 특징 데이터 추출부 및 머신러닝을 이용하여 추출된 특징 데이터를 기초로 스코어를 할당하기 위한 레이블데이터를 추출하는 제 2 레이블 데이터 추출부를 포함할 수 있다.Referring to FIG. 8, the first data generation module 210 according to an embodiment of the present disclosure may extract first feature data of a determination reference region based on a slice image in which a mask is generated using deep learning. A feature data extractor and a first label data extractor for extracting label data for assigning scores based on feature data extracted using deep learning, the second data generation module according to an embodiment of the present invention; In operation 220, the second feature data extractor extracts feature data of the determination reference region based on the slice image in which the mask is generated using machine learning, and allocates a score based on the feature data extracted using machine learning. It may include a second label data extraction unit for extracting label data for.

본 발명의 일 실시 예에 따른 제 1 특징 데이터 추출부에서 이용되는 딥러닝 또는 제 2 특징 데이터 추출부에서 이용되는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함될 수 있다.In the deep learning used in the first feature data extractor or the machine learning used in the second feature data extractor according to an embodiment of the present invention, a FCN (Fully Convolutional Network) algorithm may be included.

본 발명의 일 실시 예에 따른 스코어링부(300)에서 이용되는 딥러닝 또는 머신러닝에는 회귀 알고리즘 및 서포트 벡터 머신 알고리즘이 포함될 수 있다.Deep learning or machine learning used in the scoring unit 300 according to an embodiment of the present invention may include a regression algorithm and a support vector machine algorithm.

본 발명의 일 실시 예에 따른 아밀로이드 양음성 예측부(400)에서는, 서포트 벡터 머신 알고리즘을 이용하여 추출 및 학습된 스코어를 기초로 알고리즘 모델을 생성할 수 있다.The amyloid positive-negative predictor 400 according to an embodiment of the present invention may generate an algorithm model based on the extracted and learned scores using a support vector machine algorithm.

본 발명의 일 실시 예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.With regard to the apparatus according to an embodiment of the present invention, the above description may be applied. Therefore, with respect to the apparatus, the description of the same contents as those of the above-described method is omitted.

한편, 본 발명의 일 실시 예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 다시 말해서, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.Meanwhile, according to an embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for executing the above-described method on a computer can be provided. In other words, the above-described method can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer for operating the program using a computer readable medium. In addition, the structure of the data used in the above-described method can be recorded on the computer-readable medium through various means. A recording medium for recording an executable computer program or code for performing various methods of the present invention should not be understood to include temporary objects, such as carrier waves or signals. The computer readable medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, etc.).

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

100: 전처리부 110: 영상 분할부
120: 영상 정합부 130: 슬라이스 영상 생성부
140: 영상 마스크 생성부 150: 영상 송수신부
200: 입력 데이터 생성부 210: 제 1 데이터 생성모듈
220: 제 2 데이터 생성모듈
300: 스코어링부 310: 제 1 스코어링 모듈
320: 제 2 스코어링 모듈
400: 아밀로이드 양음성 예측부 410: 제 1 양음성 판단모듈
420: 제 2 양음성 판단모듈
500: 통신부 600: 데이터베이스
1000: 아밀로이드 양성 또는 음성을 예측하기 위한 장치
100: preprocessing unit 110: image segmentation unit
120: image matching unit 130: slice image generation unit
140: image mask generator 150: image transceiver
200: input data generation unit 210: first data generation module
220: second data generation module
300: scoring unit 310: first scoring module
320: second scoring module
400: amyloid positive negative predictor 410: first positive negative determination module
420: second positive voice determination module
500: communication unit 600: database
1000: device for predicting amyloid positive or negative

Claims (15)

딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 방법에 있어서,
상기 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스(slice) 영상 및 상기 슬라이스 영상에 대한 마스크(mask)를 생성하는 전처리 단계;
상기 딥러닝 또는 머신러닝을 이용하여 상기 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하는 단계;
상기 딥러닝 또는 머신러닝을 이용하여 상기 생성된 입력 데이터로부터 상기 아밀로이드 양성 또는 음성을 예측하기 위한 스코어(score)를 추출 및 학습하는 단계; 및
상기 딥러닝 또는 머신러닝을 이용하여 상기 추출 및 학습된 스코어를 기초로 상기 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 상기 생성된 알고리즘 모델을 통해 상기 아밀로이드 양성 또는 음성을 판단하는 단계를 포함하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
In the method for predicting amyloid positive or negative based on deep learning,
A preprocessing step of generating a slice image and a mask for the slice image from the first brain image and the second brain image based on the determination reference region for predicting the amyloid positive or negative;
Generating input data based on a slice image and a mask generated in the preprocessing step using the deep learning or machine learning;
Extracting and learning a score for predicting the amyloid positive or negative from the generated input data using the deep learning or machine learning; And
Generating an algorithm model for diagnosing the amyloid positive or negative based on the extracted and learned scores using the deep learning or machine learning, and determining the amyloid positive or negative based on the generated algorithm model A method for predicting amyloid positive or negative comprising.
제 1 항에 있어서,
상기 전처리 단계는,
상기 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 단계;
상기 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 단계;
상기 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하는 단계;
상기 정합 영상으로부터 상기 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 단계; 및
상기 제 1 슬라이스 영상의 상기 판단기준영역에 대한 마스크를 생성하는 단계를 포함하며,
상기 판단기준영역은 상기 판단기초영역을 포함하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 1,
The pretreatment step,
Generating a segmented image of the first brain image;
Generating a registration image of the first brain imaging image and the second brain imaging image;
Selecting a first slice image based on an output state of the determination base region with respect to the divided image;
Extracting a second slice image corresponding to the first slice image from the registration image; And
Generating a mask for the determination reference region of the first slice image,
And the determination reference region comprises the determination basis region.
제 2 항에 있어서,
상기 제 1 뇌촬영 영상은 MRI T1 볼륨(volume) 이미지이고, 상기 제 2 뇌촬영 영상은 아밀로이드 페트(PET) 볼륨 이미지이며,
상기 판단기초영역은 측두엽 영역(temporal region), 전두엽 영역(frontal region), 후대상설전 영역(posterior cingulate-precuneus region) 및 두정엽 영역(parietal region)을 포함하고,
상기 판단기준영역은 상기 판단기초영역 각각의 좌측부와 우측부 및 상기 좌측부 또는 우측부 각각의 백색질 영역(white matter, wm)과 회색질 영역(grey matter, gm)을 포함하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 2,
The first brain image is an MRI T1 volume image, the second brain image is an amyloid PET volume image,
The judgment basis region includes a temporal region, a frontal region, a posterior cingulate-precuneus region, and a parietal region,
The determination reference region may include a white matter region (wm) and a gray matter region (gm) and a gray matter region (gm) of each of the left and right portions of each of the determination basic regions, and the left or right portion of each of the determination basic regions. Method for predicting speech.
제 1 항에 있어서,
상기 입력 데이터를 생성하는 단계는,
상기 딥러닝 또는 머신러닝을 이용하여 상기 마스크가 생성된 슬라이스 영상을 기초로 상기 판단기준영역에 대한 특징(feature) 데이터를 추출하는 단계; 및
상기 딥러닝 또는 머신러닝을 이용하여 상기 추출된 특징 데이터를 기초로 상기 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 단계를 포함하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 1,
Generating the input data,
Extracting feature data for the determination reference region based on the slice image in which the mask is generated using the deep learning or machine learning; And
Extracting label data for assigning the scores based on the extracted feature data using the deep learning or machine learning method.
제 4 항에 있어서,
상기 특징 데이터를 추출하는 단계에서 이용되는 상기 딥러닝 또는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함되는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 4, wherein
The deep learning or machine learning used in the step of extracting the feature data includes a fully convolutional network (FCN) algorithm, the method for predicting the amyloid positive or negative.
제 1 항에 있어서,
상기 스코어를 추출 및 학습하는 단계에서 이용되는 상기 딥러닝 또는 머신러닝에는 회귀(regression) 알고리즘 및 서포트 벡터 머신(support vector machine, SVM) 알고리즘이 포함되는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 1,
The deep learning or machine learning used in the step of extracting and learning the score includes a regression algorithm and a support vector machine (SVM) algorithm for predicting amyloid positive or negative. Way.
제 1 항에 있어서,
상기 알고리즘 모델을 생성하고, 상기 생성된 알고리즘 모델을 통해 상기 아밀로이드 양성 또는 음성을 판단하는 단계에서는,
서포트 벡터 머신 알고리즘을 이용하여 상기 추출 및 학습된 스코어를 기초로 상기 알고리즘 모델을 생성하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 방법.
The method of claim 1,
In the generating of the algorithm model and determining the amyloid positive or negative through the generated algorithm model,
And generating an algorithmic model based on the extracted and learned scores using a support vector machine algorithm.
딥러닝을 기반으로 하는 아밀로이드(Amyloid) 양성 또는 음성을 예측하기 위한 장치에 있어서,
상기 아밀로이드 양성 또는 음성을 예측하기 위한 판단기준영역을 기초로 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상으로부터 슬라이스(slice) 영상 및 상기 슬라이스 영상에 대한 마스크(mask)를 생성하는 전처리부;
상기 전처리 단계에서 생성된 슬라이스 영상 및 마스크를 기초로 입력 데이터를 생성하기 위해 상기 딥러닝을 이용하는 제 1 데이터 생성모듈 및 머신러닝을 이용하는 제 2 데이터 생성모듈을 포함하는 입력 데이터 생성부;
상기 생성된 입력 데이터로부터 상기 아밀로이드 양성 또는 음성을 예측하기 위한 스코어(score)를 추출 및 학습하기 위해 상기 딥러닝을 이용하는 제 1 스코어링 모듈 및 상기 머신러닝을 이용하는 제 2 스코어링 모듈을 포함하는 스코어링부; 및
상기 추출 및 학습된 스코어를 기초로 하여 상기 아밀로이드 양성 또는 음성을 진단하기 위한 알고리즘 모델을 생성하고, 상기 생성된 알고리즘 모델을 통해 상기 아밀로이드 양성 또는 음성을 판단하기 위해 상기 딥러닝을 이용하는 제 1 양음성 판단모듈 및 상기 머신러닝을 이용하는 제 2 양음성 판단모듈을 포함하는 아밀로이드 양음성 예측부를 포함하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
Apparatus for predicting amyloid positive or negative based on deep learning,
A preprocessor configured to generate a slice image and a mask for the slice image from a first brain image and a second brain image based on the determination reference region for predicting the amyloid positive or negative;
An input data generation unit including a first data generation module using the deep learning and a second data generation module using the machine learning to generate input data based on the slice image and the mask generated in the preprocessing step;
A scoring unit including a first scoring module using the deep learning and a second scoring module using the machine learning to extract and learn a score for predicting the amyloid positive or negative from the generated input data; And
A first positive voice using the deep learning to generate an algorithmic model for diagnosing the amyloid positive or negative based on the extracted and learned scores, and to determine the amyloid positive or negative through the generated algorithm model Apparatus for predicting amyloid positive or negative comprising an amyloid positive negative predictor comprising a determination module and a second positive determination module using the machine learning.
제 8 항에 있어서,
상기 전처리부는,
상기 제 1 뇌촬영 영상에 대한 분할 영상을 생성하는 영상 분할부;
상기 제 1 뇌촬영 영상 및 제 2 뇌촬영 영상에 대한 정합 영상을 생성하는 영상 정합부;
상기 분할 영상에 대한 판단기초영역의 출력 상태를 기준으로 제 1 슬라이스 영상을 선택하고, 상기 정합 영상으로부터 상기 제 1 슬라이스 영상에 대응되는 제 2 슬라이스 영상을 추출하는 슬라이스 영상 생성부; 및
상기 제 1 슬라이스 영상의 상기 판단기준영역에 대한 마스크를 생성하는 영상 마스크 생성부를 포함하며,
상기 판단기준영역은 상기 판단기초영역을 포함하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 8,
The preprocessing unit,
An image divider configured to generate a split image of the first brain image;
An image registration unit generating a registration image of the first brain imaging image and the second brain imaging image;
A slice image generation unit selecting a first slice image based on an output state of the determination base region with respect to the divided image, and extracting a second slice image corresponding to the first slice image from the matched image; And
An image mask generator configured to generate a mask for the determination reference region of the first slice image,
The apparatus for predicting amyloid positive or negative, wherein the determination reference region includes the determination basis region.
제 9 항에 있어서,
상기 제 1 뇌촬영 영상은 MRI T1 볼륨(volume) 이미지이고, 상기 제 2 뇌촬영 영상은 아밀로이드 페트(PET) 볼륨 이미지이며,
상기 판단기초영역은 측두엽 영역(temporal region), 전두엽 영역(frontal region), 후대상설전 영역(posterior cingulate-precuneus region) 및 두정엽 영역(parietal region)을 포함하고,
상기 판단기준영역은 상기 판단기초영역 각각의 좌측부와 우측부 및 상기 좌측부 또는 우측부 각각의 백색질 영역(white matter, wm)과 회색질 영역(grey matter, gm)을 포함하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 9,
The first brain image is an MRI T1 volume image, the second brain image is an amyloid PET volume image,
The judgment basis region includes a temporal region, a frontal region, a posterior cingulate-precuneus region, and a parietal region,
The determination reference region may include a white matter region (wm) and a gray matter region (gm) and a gray matter region (gm) of each of the left and right portions of each of the determination basic regions, and the left or right portion of each of the determination basic regions. Device for predicting speech.
제 8 항에 있어서,
상기 제 1 데이터 생성모듈은,
상기 딥러닝을 이용하여 상기 마스크가 생성된 슬라이스 영상을 기초로 상기 판단기준영역에 대한 특징(feature) 데이터를 추출하는 제 1 특징 데이터 추출부; 및
상기 딥러닝을 이용하여 상기 추출된 특징 데이터를 기초로 상기 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 제 1 레이블 데이터 추출부를 포함하며,
상기 제 2 데이터 생성모듈은,
상기 머신러닝을 이용하여 상기 마스크가 생성된 슬라이스 영상을 기초로 상기 판단기준영역에 대한 특징(feature) 데이터를 추출하는 제 2 특징 데이터 추출부; 및
상기 머신러닝을 이용하여 상기 추출된 특징 데이터를 기초로 상기 스코어를 할당하기 위한 레이블(label) 데이터를 추출하는 제 2 레이블 데이터 추출부를 포함하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 8,
The first data generation module,
A first feature data extractor configured to extract feature data of the determination reference region based on the slice image in which the mask is generated using the deep learning; And
A first label data extracting unit extracting label data for allocating the scores based on the extracted feature data using the deep learning;
The second data generation module,
A second feature data extractor configured to extract feature data of the determination reference region based on the slice image in which the mask is generated using the machine learning; And
And a second label data extractor for extracting label data for allocating the scores based on the extracted feature data using the machine learning.
제 11 항에 있어서,
상기 제 1 특징 데이터 추출부에서 이용되는 딥러닝 또는 제 2 특징 데이터 추출부에서 이용되는 머신러닝에는 FCN(Fully convolutional network) 알고리즘이 포함되는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 11,
The apparatus for predicting amyloid positive or negative is a deep convolutional network (FCN) algorithm is included in the deep learning used in the first feature data extractor or the machine learning used in the second feature data extractor.
제 8 항에 있어서,
상기 스코어링부에서 이용되는 상기 딥러닝 또는 머신러닝에는 회귀(regression) 알고리즘 및 서포트 벡터 머신(support vector machine, SVM) 알고리즘이 포함되는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 8,
The deep learning or machine learning used in the scoring unit includes a regression algorithm and a support vector machine (SVM) algorithm for predicting amyloid positive or negative.
제 8 항에 있어서,
상기 아밀로이드 양음성 예측부에서는,
서포트 벡터 머신 알고리즘을 이용하여 상기 추출 및 학습된 스코어를 기초로 상기 알고리즘 모델을 생성하는 것을 특징으로 하는 아밀로이드 양성 또는 음성을 예측하기 위한 장치.
The method of claim 8,
In the amyloid positive negative prediction unit,
And generate an algorithmic model based on the extracted and learned scores using a support vector machine algorithm.
제 1 항 내지 제 7 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for implementing the method of any one of claims 1 to 7.
KR1020180057866A 2018-05-21 2018-05-21 Method and apparatus for predicting amyloid positive or negative based on deep learning KR102173197B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180057866A KR102173197B1 (en) 2018-05-21 2018-05-21 Method and apparatus for predicting amyloid positive or negative based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180057866A KR102173197B1 (en) 2018-05-21 2018-05-21 Method and apparatus for predicting amyloid positive or negative based on deep learning

Publications (2)

Publication Number Publication Date
KR20190132832A true KR20190132832A (en) 2019-11-29
KR102173197B1 KR102173197B1 (en) 2020-11-03

Family

ID=68728815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180057866A KR102173197B1 (en) 2018-05-21 2018-05-21 Method and apparatus for predicting amyloid positive or negative based on deep learning

Country Status (1)

Country Link
KR (1) KR102173197B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121608A (en) * 2020-03-30 2021-10-08 사회복지법인 삼성생명공익재단 Tau protein accumulation prediction apparatus using machine learning and tau protein accumulation prediction method using the same
WO2021215821A1 (en) * 2020-04-21 2021-10-28 가톨릭대학교 산학협력단 Method for predicting neurologic prognosis of post-cardiac arrest syndrome patient
KR102322647B1 (en) * 2021-05-25 2021-11-09 주식회사 아이메디신 Method, server and computer program for diagnosing alzheimer's disease dementia using correlation between eeg signals
WO2021230534A1 (en) * 2020-05-13 2021-11-18 가톨릭대학교 산학협력단 Orbital and periorbital lesion prediction apparatus and prediction method therefor
KR20220013319A (en) * 2020-07-24 2022-02-04 고려대학교 산학협력단 Deep learning algorithm for Alzheimer's disease prediction using a single brain MR slice
KR20220055549A (en) 2020-10-26 2022-05-04 동아대학교 산학협력단 Pet image classification apparatus for determining brain disease based on deep learning and method thereof
KR20220090993A (en) * 2020-12-23 2022-06-30 동아대학교 산학협력단 Pet image medium-term data prediction apparatus based on least squares method for determining brain disease, and method thereof
WO2022149696A1 (en) * 2021-01-06 2022-07-14 주식회사 뷰노 Classification method using deep learning model
KR20230158763A (en) * 2022-05-12 2023-11-21 연세대학교 산학협력단 Brain tissue segmentation System and method from the brain MRI data using deep-learning
US11832955B2 (en) * 2022-02-22 2023-12-05 NEUROPHET Inc. Method and apparatus for providing information needed for dementia diagnosis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090104845A (en) * 2007-01-30 2009-10-06 지이 헬쓰케어 리미티드 Tools for aiding in the diagnosis of neurodegenerative diseases
KR101757646B1 (en) * 2016-03-08 2017-07-14 경북대학교 산학협력단 Image analysis system using beta-amyloid PET image and operating method using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090104845A (en) * 2007-01-30 2009-10-06 지이 헬쓰케어 리미티드 Tools for aiding in the diagnosis of neurodegenerative diseases
JP5468905B2 (en) 2007-01-30 2014-04-09 ジーイー・ヘルスケア・リミテッド Tools to help diagnose neurodegenerative diseases
KR101757646B1 (en) * 2016-03-08 2017-07-14 경북대학교 산학협력단 Image analysis system using beta-amyloid PET image and operating method using the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Heung-Il Suk 외 1인. "Deep Learning-Based Feature epresentation for AD/MCI Classification". MICCAI 2013, Part II, LNCS 8150, pp. 583-590, 2013.09. 공개 1부.* *
Seung Kwan Kang 외 7인. "Adaptive template generation for amyloid PET using a deep learning approach". WILEY, 2018.05.01. 공개 1부.* *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121608A (en) * 2020-03-30 2021-10-08 사회복지법인 삼성생명공익재단 Tau protein accumulation prediction apparatus using machine learning and tau protein accumulation prediction method using the same
WO2021215821A1 (en) * 2020-04-21 2021-10-28 가톨릭대학교 산학협력단 Method for predicting neurologic prognosis of post-cardiac arrest syndrome patient
KR20210130038A (en) * 2020-04-21 2021-10-29 이화여자대학교 산학협력단 Method for predicting neurological prognosis in a patient with post-cardiac arrest syndrome
WO2021230534A1 (en) * 2020-05-13 2021-11-18 가톨릭대학교 산학협력단 Orbital and periorbital lesion prediction apparatus and prediction method therefor
KR20210140836A (en) * 2020-05-13 2021-11-23 가톨릭대학교 산학협력단 Method and apparatuses to predict orbital and periorbital lesions
KR20220013319A (en) * 2020-07-24 2022-02-04 고려대학교 산학협력단 Deep learning algorithm for Alzheimer's disease prediction using a single brain MR slice
KR20220055549A (en) 2020-10-26 2022-05-04 동아대학교 산학협력단 Pet image classification apparatus for determining brain disease based on deep learning and method thereof
KR20220090993A (en) * 2020-12-23 2022-06-30 동아대학교 산학협력단 Pet image medium-term data prediction apparatus based on least squares method for determining brain disease, and method thereof
WO2022149696A1 (en) * 2021-01-06 2022-07-14 주식회사 뷰노 Classification method using deep learning model
KR102322647B1 (en) * 2021-05-25 2021-11-09 주식회사 아이메디신 Method, server and computer program for diagnosing alzheimer's disease dementia using correlation between eeg signals
US11832955B2 (en) * 2022-02-22 2023-12-05 NEUROPHET Inc. Method and apparatus for providing information needed for dementia diagnosis
KR20230158763A (en) * 2022-05-12 2023-11-21 연세대학교 산학협력단 Brain tissue segmentation System and method from the brain MRI data using deep-learning

Also Published As

Publication number Publication date
KR102173197B1 (en) 2020-11-03

Similar Documents

Publication Publication Date Title
KR20190132832A (en) Method and apparatus for predicting amyloid positive or negative based on deep learning
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
CN109447183B (en) Prediction model training method, device, equipment and medium
KR102243830B1 (en) System for providing integrated medical diagnostic service and method thereof
KR102289277B1 (en) Medical image diagnosis assistance apparatus and method generating evaluation score about a plurality of medical image diagnosis algorithm
US10810512B1 (en) Validating a machine learning model prior to deployment
WO2021020198A1 (en) Information processing device, program, learned model, diagnostic assistance device, learning device, and method for generating prediction model
CN107563434B (en) Brain MRI image classification method and device based on three-dimensional convolutional neural network
US20050209519A1 (en) Hierarchical modeling in medical abnormality detection
JP6842481B2 (en) 3D quantitative analysis of the retinal layer using deep learning
KR20140088434A (en) Mri multi-parametric images aquisition supporting apparatus and method based on patient characteristics
RU2011116406A (en) SYSTEM AND METHOD FOR COMBINING CLINICAL SIGNS AND SIGNS OF IMAGES FOR DIAGNOSTIC USING A COMPUTER
KR20150073628A (en) System and method for adapting diagnosis model of computer aided diagnosis
KR102515068B1 (en) Method for Providing Information on Predicting Breast Cancer Lymph Node Metastasis Using Machine Learning
EP4026498A2 (en) Method and apparatus for predicting region-specific cerebral cortical contraction rate on basis of ct image
JPWO2018211688A1 (en) Computer system, subject diagnosis support method and program
Liu et al. Style transfer generative adversarial networks to harmonize multisite MRI to a single reference image to avoid overcorrection
CN109214451A (en) A kind of classification method and equipment of brain exception
US20230126877A1 (en) Synthetic data generation and annotation for tumor diagnostics and treatment
Daza et al. Classification of Alzheimer's disease in MRI using visual saliency information
CN116228731A (en) Multi-contrast learning coronary artery high-risk plaque detection method, system and terminal
Aruna et al. Cloud based decision support system for diagnosis of breast cancer using digital mammograms
US20220313103A1 (en) Hierarchical diagnosis device of brain atrophy based on brain thickness information
CN115063351A (en) Deep learning-based fetal MRI brain tissue segmentation method and device
CN115035133A (en) Model training method, image segmentation method and related device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant