KR101917947B1 - 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치 - Google Patents

딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치 Download PDF

Info

Publication number
KR101917947B1
KR101917947B1 KR1020170023876A KR20170023876A KR101917947B1 KR 101917947 B1 KR101917947 B1 KR 101917947B1 KR 1020170023876 A KR1020170023876 A KR 1020170023876A KR 20170023876 A KR20170023876 A KR 20170023876A KR 101917947 B1 KR101917947 B1 KR 101917947B1
Authority
KR
South Korea
Prior art keywords
image
recurrence
modal
brain tumor
pet
Prior art date
Application number
KR1020170023876A
Other languages
English (en)
Other versions
KR20180097214A (ko
Inventor
성준경
김정훈
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020170023876A priority Critical patent/KR101917947B1/ko
Publication of KR20180097214A publication Critical patent/KR20180097214A/ko
Application granted granted Critical
Publication of KR101917947B1 publication Critical patent/KR101917947B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치가 개시된다. 일 실시예에 따른 재발 부위 예측 방법은 복수의 이미지에 전처리를 수행하는 단계와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계를 포함하고, 상기 복수의 이미지는 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지 중 적어도 하나를 포함하는 멀티모달 MR 이미지이다.

Description

딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치{METHOD OF PREDICTING RECURRENCE REGION AND GENERATING PET IMAGE USING DEEP LEARNING, AND APPARATUS THEREOF}
아래 실시예들은 딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치에 관한 것이다.
일반적으로 딥 러닝(Deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야이다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 이미지의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현하고 이를 학습에 적용하기 위해 많은 연구가 진행되고 있으며, 이러한 노력의 결과로 deep neural networks, convolutional deep neural networks, deep believe networks와 같은 다양한 딥러닝 기법들이 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용되어 최첨단의 결과들을 보여주고 있다.
실시예들은 뇌 종양이 발생한 환자의 멀티모달 MR 이미지로부터 뇌 종양 재발 부위를 예측하는 기술을 제공할 수 있다.
또한, 실시예들은 멀티모달 MR 이미지로부터 PET 이미지를 생성하는 기술을 제공할 수 있다.
일 실시예에 따른 재발 부위 예측 방법은 복수의 이미지에 전처리를 수행하는 단계와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.
상기 예측하는 단계는, 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 단계와, 상기 기 학습된 인식기가 상기 재발 부위를 예측하는 단계를 포함할 수 있다.
상기 방법은 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.
상기 전처리를 수행하는 단계는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는 단계를 포함할 수 있다.
상기 전처리를 수행하는 단계는, 상기 복수의 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.
일 실시예에 따른 재발 부위 예측 장치는 복수의 이미지에 전처리를 수행하는 전처리기와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 컨트롤러를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.
상기 장치는 상기 전처리된 복수의 이미지를 수신하여 상기 재발 부위를 예측하는 기 학습된 인식기를 더 포함하고, 상기 컨트롤러는, 상기 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력할 수 있다.
상기 컨트롤러는, 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.
상기 전처리기는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합할 수 있다.
상기 전처리기는, 상기 복수의 이미지에 brain skull stripping을 수행할 수 있다.
일 실시예에 따른 PET 이미지 생성 방법은 T1(T1-weighted) MR 이미지에 전처리를 수행하는 단계와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 단계와, 및 상기 기 학습된 인식기가 PET(positron Emission Tomography) 이미지를 생성하는 단계를 포함한다.
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.
상기 수행하는 단계는, 상기 T1 MR 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.
상기 방법은 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.
상기 학습시키는 단계는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는 단계를 포함할 수 있다.
일 실시예에 따른 PET 이미지 생성 장치는 T1 MR 이미지에 전처리를 수행하는 전처리기와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 컨트롤러와, 상기 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성하는 기 학습된 인식기를 포함한다.
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.
상기 전처리기는, 상기 T1 MR 이미지에 brain skull stripping을 수행할 수 있다.
상기 컨트롤러는, 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.
상기 컨트롤러는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭할 수 있다.
도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타낸다.
도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이다.
도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.
도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이다.
도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.
도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.
도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이다.
도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타내고, 도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이고, 도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.
도 1 내지 도 3을 참조하면, 재발 부위 학습 장치(100)는 전처리기(110) 및 컨트롤러(130)를 포함한다.
재발 부위 학습 장치(100)는 입력 데이터(또는 입력물) 및 출력 데이터(또는 출력물) 검토를 위해 PC(personal computer), 데이터 서버, 또는 휴대용 전자 장치에 구현(또는 탑재)될 수 있다.
휴대용 전자 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld console), e-북(e-book), 또는 스마트디바이스(smart device)로 구현될 수 있다. 예를 들어, 스마트 디바이스는 스마트 와치(smart watch) 또는 스마트 밴드(smart band)로 구현될 수 있다.
재발 부위 학습 장치(100)는 복수의 이미지로부터 재발 부위 예측을 위한 인식기를 학습시킬 수 있다. 복수의 이미지는 멀티모달(multimodal) MR 이미지이고, 뇌 종양 재발 전의 MR 이미지 및 뇌 뇌 종양 재발 후의 MR 이미지를 포함하는 트레이닝 데이터일 수 있다. 예를 들어, 재발 부위 학습 장치(100)는 멀티모달 MR 이미지 및 재발 부위 이미지가 포함된 트레이닝 데이터를 수신하고, 수신된 트레이닝 데이터를 이용하여 재발 부위를 예측하는 인식기를 학습시킬 수 있다.
멀티모달 MR 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다. 뇌 종양 재발 전의 MR 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, 및 ADC(Apparent Diffusion Coefficient) 이미지(또는 맵) 중 적어도 하나를 포함할 수 있다. 뇌 종양 재발 후의 MR 이미지는 T1 이미지 및 T1CE 이미지 중 적어도 하나를 포함할 수 있다. 멀티모달 MR 이미지의 특성은 표 1과 같을 수 있다.
Figure 112017018638020-pat00001
전처리기(110)는 복수의 이미지에 전처리를 수행할 수 있다.
뇌 종양 재발 전의 MR 이미지를 처리하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 사이즈가 [240 x 240 x 240]이고 zero 이미지로 처리할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1 이미지를 배치할 수 있다. 또한, 전처리기(110)는 T1 이미지에서 생성한 mask 이미지를 불러들여, foreground로 해당되는 값을 가지고, T1 이미지의 데이터를 정규화(normalization)시킬 수 있다. 전처리기(110)는 이와 같은 작업을 T1 이미지 외에도 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)에 동일하게 적용할 수 있다. 전처리기(110)는 완성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지(또는 맵) 및 후술할 Segmentation 이미지를 6 채널(6 ch)로 구성하여 [6 x 240 x 240]의 입력용 데이터를 생성할 수 있다.
뇌 종양 재발 후의 MR 이미지를 처리하는 경우, 사용자는 뇌 종양 재발 후의 MR 이미지에서 manual segmentation을 사용하여 수동으로 뇌 종양 재발 부위를 추출하여 T1CE_segmentation 이미지를 생성할 수 있다. T1CE_segmentation 이미지는 사이즈가 [x 7 x y 7 x z 7]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)는 T1CE_segmentation 이미지를 사이즈가 [240 x 240 x 240]인 zero 이미지로 처리할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1CE_segmentation 이미지를 배치할 수 있다. 즉, 전처리기(110)는 뇌 종양 재발 부위에 관한 [1 x 240 x 240]의 입력용 데이터를 생성할 수 있다.
이하에서는 이를 실현하는 전처리기(110)의 동작을 구체적으로 설명하도록 한다.
전처리기(110)는 복수의 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, 복수의 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.
전처리기(110)가 복수의 이미지를 T1 이미지를 기준으로 정합하는 경우, 뇌 종양 재발 전의 MR 이미지를 정합하는 경우와, 뇌 종양 재발 후의 MR 이미지를 정합하는 경우가 있을 수 있다.
전처리기(110)가 뇌 종양 재발 전의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵))의 사이즈를 모두 [x 1 x y 1 x z 1]로, 데이터 타입은 float 타입으로 정합할 수 있다.
전처리기(110)가 뇌 종양 재발 후의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 후의 MR 이미지(T1 이미지, T1CE 이미지, 및 T1CE_segmentation 이미지)의 사이즈를 모두 [x 6 x y 6 x z 6]로 정합할 수 있다. 전처리기(110)는 T1 이미지 및 T1CE 이미지의 데이터 타입을 float 타입으로, T1CE_segmentation 이미지의 데이터 타입을 bool 타입으로 정합할 수 있다.
전처리기(110)는 뇌 종양 재발 후의 MR 이미지를 뇌 종양 재발 전의 MR 이미지에 정합하여 변환 행렬 Mt2 ->t1을 생성할 수 있다. 이때, 뇌 종양 재발 전의 시점을 t1, 뇌 종양 재발 후의 시점을 t2라 할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지에 변환 행렬 Mt2 ->t1을 적용하여 정합할 수 있다. 이때, 정합된 T1CE_segmentation 이미지는 사이즈가 [x 1 x y 1 x z 1]이고, 데이터 타입이 bool 타입으로 정합될 수 있다.
전처리기(110)는 모든 뇌 영상 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인하고, 모든 이미지를 T1 이미지와 동일한 공간(space)에 위치하도록 배치할 수 있다. 전처리기(110)가 복수의 이미지를 정합한 결과는 도 2에 도시된 바와 같을 수 있다. 전처리기(110)는 복수의 이미지(210)을 정합하여 정합된 이미지(230)를 생성할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)를 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다. 또한, 전처리기(110)는 뇌 종양 재발 후의 T1CE 이미지를 뇌 종양 재발 후의 T1 이미지와 동일한 공간에 위치하도록 매칭한 후, 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다.
전처리기(110)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, 전처리기(110)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있으며, 이 3D 이미지를 기반으로 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하고, brain skull stripping을 수행하여 skull stripping 이미지를 생성할 수 있다. 이때, 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)가 생성한 brain mask는 도 3에 도시된 바와 같을 수 있다. 전처리기(110)는 정합된 이미지(230)의 이미지에 brain skull stripping을 사용하여 brain mask 이미지(250)를 생성할 수 있다.
전처리기(110)는 3D 이미지에서 축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(110)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(110)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다.
전처리기(110)가축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 추출한 슬라이스 이미지의 특성은 표 2와 같을 수 있다.
Figure 112017018638020-pat00002
전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, 및 FLAIR 이미지)를 segmentation용으로 기 학습된 인식기를 사용하여 segmentation 이미지를 생성할 수 있다. 이때, segmentation 이미지는 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 int 타입일 수 있다. 또한 생성된 이미지는 인식기의 입력으로 사용된다.
전처리기(110)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(110)는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.
전처리기(110)는 인식기의 출력 노드(output node)에서 재발 부위 예측의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.
전처리기(110)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(110)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(110)는 인식기의 출력 노드에서 재발 부위 예측의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.
전처리기(110)는 모듈로 구현될 수 있다. 모듈은 전처리기(110)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(110)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.
컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위를 예측할 수 있다. 예를 들어, 컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위 이미지를 생성할 수 있다. 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지를 분석하여 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 획득할 수 있다.
컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 4a 및 도 4b를 참조하여 상세히 설명한다.
도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이고, 도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.
도 4a를 참조하면, 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 인식기(150-1)에 입력할 수 있다.
도 4a에 도시된 컨트롤러(130)는 도 1에 도시된 컨트롤러(130)와 구성 및 동작이 실질적으로 동일할 수 있다.
인식기(150-1)는 복수의 입력 값에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 인식기(150-1)는 CNN(Convolutional Neural Network)으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 이미지를 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. 예를 들어, 인식기(150-1)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(fully connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-1)는 인공 신경망(artificial network)으로 구성될 수 있다.
인공 신경망은 입력 레이어, 히든 레이어, 및 출력 레이어를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 인접한 레이어 사이의 노드들은 연결 가중치를 가지고 서로 연결될 수 있다. 각 노드들은 활성화 모델에 기초하여 동작할 수 있다. 활성화 모델에 따라 입력 값에 대응하는 출력 값이 결정될 수 있다. 임의의 노드의 출력 값은 해당 노드와 연결된 다음 레이어의 노드로 입력될 수 있다. 다음 레이어의 노드는 복수의 노드들로부터 출력되는 값들을 입력 받을 수 있다. 임의의 노드의 출력 값이 다음 레이어의 노드로 입력되는 과정에서, 연결 가중치가 적용될 수 있다. 다음 레이어의 노드는 활성화 모델에 기초하여 입력 값에 대응하는 출력 값을 해당 노드와 연결된 그 다음 레이어의 노드로 출력할 수 있다.
출력 레이어는 원거리 이미지 객체의 깊이에 대응하는 노드들을 포함할 수 있다. 출력 레이어의 노드들은 원거리 이미지 객체의 깊이에 대응하는 특징 값들을 출력할 수 있다.
인식기(150-1)는 인공 신경망에서 출력되는 특징 값들에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 컨트롤러(130)는 실제 재발 부위를 알고 있으므로, 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위의 차이를 계산할 수 있다.
이에, 컨트롤러(130)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-1)를 업데이트할 수 있다. 예를 들어, 컨트롤러(130)는 인식기(150-1) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(130)는 차이를 고려하여 인식기(150-1)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.
재발 부위 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(130)는 역 전파 기법에 표 3과 같은 파라미터(parameter)를 사용할 수 있다.
Figure 112017018638020-pat00003
이때, Epoch가 10 증가할 때마다 Learning rate는 5%씩 감소할 수 있다. 즉, Epoch가 1~10일 때 Learning rate는 0.0015이고, Epoch가 11~20일 때 Learning rate는 0.0015*0.95이고, Epoch가 21~30일 때 Learning rate는 0.0015*0.952이고, Epoch가 191~200일 때 Learning rate는 0.0015*0.9519일 수 있다.
컨트롤러(130)는 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위 이미지의 차이가 최소화되도록 인식기(150-1)를 학습시킬 수 있다.
도 4b를 참조하면, 인식기(150-1)는 복수의 슬라이스 이미지를 수신할 수 있다. 예를 들어, 복수의 슬라이스 이미지는 [240 x 240]의 사이즈를 갖고, 6 채널(6 ch)로 구성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지, Segmentation 이미지를 포함할 수 있다. 인식기(150-1)는 복수의 슬라이스 이미지에 기초하여 재발 부위를 추정(또는 재발 부위 이미지를 생성)할 수 있다.
복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-1)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-1)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.
인식기(150-1) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-1)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.
도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.
도 5를 참조하면, PET 이미지 생성 학습 장치(300)는 전처리기(310) 및 컨트롤러(330)를 포함한다.
도 5에 도시된 전처리기(330) 및 컨트롤러(330)는 도 1에 도시된 전처리기(110) 및 컨트롤러(130)와 구성이 실질적으로 동일할 수 있다.
PET 이미지 생성 학습 장치(300)는 T1 MR 이미지로부터 PET 이미지 생성을 위한 인식기를 학습시킬 수 있다. PET 이미지 생성 학습 장치(300)는 사용하는 트레이서(tracer)에 따라 상이한 타입의 PET 이미지를 생성할 수 있다. PET 이미지는 PET 이미지 생성 학습 장치(300)가 생성하는 모든 타입의 PET 이미지 중 하나의 타입일 수 있다. 예를 들어, PET 이미지는 tau-PET 이미지, AV45-PET 이미지 등일 수 있다. T1 MR 이미지는 인식기를 학습시키는 트레이닝 데이터일 수 있다. T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다.
인식기로 입력되는 트레이닝 데이터는 T1 MR 이미지 및 PET 이미지일 수 있다. 트레이닝 데이터의 특성은 표 5와 같을 수 있다.
Figure 112017018638020-pat00004
전처리기(310)는 T1 MR 이미지 및 PET 이미지에 전처리를 수행할 수 있다.
전처리기(310)는 PET 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, T1 MR 이미지 및 PET 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.
전처리기(310)가 PET 이미지를 T1 MR 이미지를 기준으로 정합하는 경우, PET 이미지를 T1 MR 이미지의 사이즈 [x 1 x y 1 x z 1]와 같게 정합할 수 있다. 정합된 PET 이미지 및 T1 MR 이미지로부터 global SUVR 값(gSUVR)을 추출하고, 부위별로 평균 SUVR 값(lSUVR i )을 추출할 수 있다. 이때, i는 1부터 N까지의 임의의 수이다. 또한 추출하는 부위는 기존에 정의된 영역(Desikan-Killiany Atlas, Destrieux Atlas , Automated Anatomical Labeling)이 될 수도 있으며, 본 작업을 수행하는 자에 의에 임의로 정의된 영역을 일컫는다.
전처리기(310)는 global SUVR 값(gSUVR) 및 평균 SUVR 값(lSUVR i )을 사용하여 각 부위에 해당하는 픽셀에 값을 매핑할 수 있다. 예를 들어, 전처리기(310)는 gSUVR > lSUVR i 를 통해 각 부위에 해당하는 픽셀에 참(1) 또는 거짓(0)의 값을 매핑할 수 있다. 이에, 전처리기(310)는 데이터 타입이 bool 타입인 PET 이미지를 생성할 수 있다.
전처리기(310)는 PET 이미지를 T1 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인할 수 있다. 차원이 맞지 않는 경우, 전처리기(310)는 차원을 맞추는 동작을 수행할 수 잇다.
전처리기(310)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, brain skull stripping을 수행하여 skull stripping 이미지를 생성하고, 이 이미지를 기반으로 3D 이미지를 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하여 생성 할 수 있다. 이때, 전처리기(310)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있다. 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다.
전처리기(310)는 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(310)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(310)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다. 전처리기(310)가 추출한 슬라이스는 T1 MR 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 float 타입이고, PET 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 bool 타입일 수 있다.
전처리기(310)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(310)는 슬라이스 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.
전처리기(310)는 인식기의 출력 노드(output node)에서 PET 이미지 생성의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.
전처리기(310)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(310)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(310)는 인식기의 출력 노드에서 PET 이미지 생성의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.
전처리기(310)는 모듈로 구현될 수 있다. 모듈은 전처리기(310)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(310)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.
컨트롤러(330)는 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지를 분석하여 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 획득할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계에 기초하여 PET 이미지를 생성하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 6a 및 도 6b를 참조하여 상세히 설명한다.
도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이고, 도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.
도 6a를 참조하면, 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 인식기(150-2)에 입력할 수 있다.
도 6a에 도시된 컨트롤러(330)는 도 5에 도시된 컨트롤러(330)와 구성 및 동작이 실질적으로 동일하고, 인식기(150-2)는 도 4a에 도시된 인식기(150-1)와 구성이 실질적으로 동일할 수 있다.
인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를을 생성할 수 있다. 인식기(150-2)는 CNN으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 값을 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. CNN은 무수히 많은 T1 MR 이미지 및 PET 이미지에 기초하여 기 학습이 되어있을 수 있다. 인식기(150-2)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(full connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-2)는 인공 신경망(artificial network)으로 구성될 수 있다.
인식기(150-2)는 인공 신경망에서 출력되는 특징 값들에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 실제 PET 이미지를 알고 있으므로, 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이를 계산할 수 있다.
이에, 컨트롤러(330)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-2)를 업데이트할 수 있다. 예를 들어, 컨트롤러(330)는 인식기(150-2) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(330)는 차이를 고려하여 인식기(150-2)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.
PET 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(330)는 역 전파 기법에 표 4와 같은 파라미터를 사용할 수 있다.
Figure 112017018638020-pat00005
컨트롤러(330)는 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 인식기(150-2)를 학습시킬 수 있다.
도 6b를 참조하면, 인식기(150-2)는 T1 MR 이미지를 수신할 수 있다. T1 MR 이미지는 [128 x 128] 사이즈이고, 1 채널로 구성될 수 있다. 인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다.
복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-2)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-2)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.
인식기(150-2) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-2)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (22)

  1. 제1 T1 이미지, 제1 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지를 포함하는 뇌 종양 재발 전의 멀티모달(multimodal) MR 이미지를 획득하는 단계;
    상기 제1 T1 이미지와 차원이 동일하게 되도록 상기 뇌 종양 재발 전의 멀티모달 MR 이미지를 정합하는 단계;
    제2 T1 이미지 및 제2 T1CE 이미지를 포함하는 뇌 종양 재발 후의 멀티모달 MR 이미지를 획득하는 단계;
    상기 제2 T1 이미지와 차원이 동일하게 되도록 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 정합하는 단계;
    인식기에 상기 뇌 종양 재발 전의 멀티모달 MR 이미지 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 입력하는 단계; 및
    상기 인식기가 상기 뇌 종양 재발 전의 멀티모달 MR 이미지로부터 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 출력하도록 역 전파(back propagation)를 사용하여 인공 신경망(artificial network)의 연결 가중치를 업데이트하는 단계
    를 포함하는 재발 부위 예측 방법.
  2. 제1항에 있어서,
    상기 뇌 종양 재발 전의 멀티모달 MR 이미지 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 인식기에 상기 뇌 종양 재발 전의 멀티모달 MR 이미지 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 입력하는 단계 이전에,
    상기 뇌 종양 재발 전의 멀티모달 MR 이미지, 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 각각 정합하여 생성한 정합된 이미지에 brain skull stripping을 수행하는 단계
    를 포함하는 재발 부위 예측 방법.
  7. 제1 T1 이미지, 제1 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지를 포함하는 뇌 종양 재발 전의 멀티모달(multimodal) MR 이미지를 상기 제1 T1 이미지와 차원이 동일하게 되도록 정합하고, 제2 T1 이미지 및 제2 T1CE 이미지를 포함하는 뇌 종양 재발 후의 멀티모달 MR 이미지를 상기 제2 T1 이미지와 차원이 동일하게 되도록 정합하는 전처리기; 및
    인식기에 상기 뇌 종양 재발 전의 멀티모달 MR 이미지 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 입력하고, 상기 인식기가 상기 뇌 종양 재발 전의 멀티모달 MR 이미지로부터 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 출력하도록 역 전파(back propagation)를 사용하여 인공 신경망(artificial network)의 연결 가중치를 업데이트하는 컨트롤러
    를 포함하는 재발 부위 예측 장치.
  8. 제7항에 있어서,
    상기 뇌 종양 재발 전의 멀티모달 MR 이미지 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 장치.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제7항에 있어서,
    상기 전처리기는,
    상기 뇌 종양 재발 전의 멀티모달 MR 이미지, 및 상기 뇌 종양 재발 후의 멀티모달 MR 이미지를 각각 정합하여 생성한 정합된 이미지에 brain skull stripping을 수행하는
    재발 부위 예측 장치.
  13. T1 이미지와, 상기 T1 이미지에 대응하는 제1 PET 이미지를 획득하는 단계;
    상기 제1 PET 이미지에 전처리를 수행함으로써 데이터 타입이 bool인 제2 PET 이미지를 획득하는 단계;
    상기 T1 이미지와 차원이 동일하게 되도록 상기 T1 이미지와, 상기 제2 PET 이미지를 정합하는 단계;
    인식기에 상기 T1 이미지 및 상기 제2 PET 이미지를 입력하는 단계; 및
    상기 인식기가 상기 T1 이미지로부터 상기 제2 PET 이미지를 출력하도록 역 전파(back propagation)를 사용하여 인공 신경망(artificial network)의 연결 가중치를 업데이트하는 단계
    를 포함하는 PET 이미지 생성 방법.
  14. 제13항에 있어서,
    상기 T1 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 방법.
  15. 제13항에 있어서,
    상기 수행하는 단계는,
    상기 T1 이미지에 brain skull stripping을 수행하는 단계
    를 포함하는 PET 이미지 생성 방법.
  16. 제13항에 있어서,
    제2 PET 이미지를 획득하는 단계는,
    상기 제1 PET 이미지로부터 global SUVR 값(gSUVR)을 추출하고, 부위별로 평균 SUVR 값(lSUVRi )을 추출하는 단계;
    상기 global SUVR 값이 상기 평균 SUVR 값 초과인 부위에 대해서는 참(1)을 매핑하는 단계; 및
    상기 global SUVR 값이 상기 평균 SUVR 값 이하인 부위에 대해서는 거짓(0)을 매핑하는 단계
    를 포함하는 PET 이미지 생성 방법.
  17. 삭제
  18. T1 이미지와, 상기 T1 이미지에 대응하는 제1 PET 이미지를 획득하고, 상기 제1 PET 이미지에 전처리를 수행함으로써 데이터 타입이 bool인 제2 PET 이미지를 획득하고, 상기 T1 이미지와 차원이 동일하게 되도록 상기 T1 이미지와, 상기 제2 PET 이미지를 정합하는 전처리기; 및
    인식기에 상기 T1 이미지 및 상기 제2 PET 이미지를 입력하고, 상기 인식기가 상기 T1 이미지로부터 상기 제2 PET 이미지를 출력하도록 역 전파(back propagation)를 사용하여 인공 신경망(artificial network)의 연결 가중치를 업데이트하는 컨트롤러
    를 포함하는 PET 이미지 생성 장치.
  19. 제18항에 있어서,
    상기 T1 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 장치.
  20. 제18항에 있어서,
    상기 전처리기는,
    상기 T1 이미지에 brain skull stripping을 수행하는
    PET 이미지 생성 장치.
  21. 제18항에 있어서,
    상기 전처리기는,
    상기 제1 PET 이미지로부터 global SUVR 값(gSUVR)을 추출하고, 부위별로 평균 SUVR 값(lSUVRi )을 추출하고, 상기 global SUVR 값이 상기 평균 SUVR 값 초과인 부위에 대해서는 참(1)을 매핑하고, 상기 global SUVR 값이 상기 평균 SUVR 값 이하인 부위에 대해서는 거짓(0)을 매핑하는
    PET 이미지 생성 장치.
  22. 삭제
KR1020170023876A 2017-02-23 2017-02-23 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치 KR101917947B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170023876A KR101917947B1 (ko) 2017-02-23 2017-02-23 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170023876A KR101917947B1 (ko) 2017-02-23 2017-02-23 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치

Publications (2)

Publication Number Publication Date
KR20180097214A KR20180097214A (ko) 2018-08-31
KR101917947B1 true KR101917947B1 (ko) 2018-11-12

Family

ID=63407680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170023876A KR101917947B1 (ko) 2017-02-23 2017-02-23 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치

Country Status (1)

Country Link
KR (1) KR101917947B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102068279B1 (ko) 2019-10-04 2020-01-20 주식회사 루닛 이미지 분석 방법 및 시스템
KR102068277B1 (ko) 2019-10-04 2020-02-11 주식회사 루닛 이미지 분석 방법 및 시스템
KR20210040761A (ko) 2019-10-04 2021-04-14 주식회사 루닛 이미지 분석 방법 및 시스템
WO2023163444A1 (ko) * 2022-02-25 2023-08-31 재단법인 아산사회복지재단 Ndt 정밀 뇌 영상 생성 방법 및 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978557B2 (en) 2018-09-12 2024-05-07 Splink, Inc. Diagnosis support system and method
KR102251858B1 (ko) * 2018-11-14 2021-05-14 주식회사 투아트 딥러닝 기반의 영상분석 방법, 시스템 및 휴대 단말
KR102375258B1 (ko) * 2018-11-15 2022-03-17 사회복지법인 삼성생명공익재단 병변 영역 검출 장치, 병변 영역 검출 방법 및 컴퓨터 프로그램
KR102363654B1 (ko) 2018-11-23 2022-02-16 가천대학교 산학협력단 Pet-mri 다중 영상 추출 장치 및 방법
KR102206621B1 (ko) * 2019-03-11 2021-01-22 가천대학교 산학협력단 딥러닝 알고리즘을 이용한 근감소증 분석 프로그램 및 애플리케이션
KR102274654B1 (ko) * 2019-07-05 2021-07-07 넷마블 주식회사 블록체인 네트워크에 기반한 게임 데이터 저장 및 활용 방법
JPWO2022054711A1 (ko) * 2020-09-10 2022-03-17
KR102456338B1 (ko) * 2021-08-03 2022-10-20 주식회사 뉴로젠 아밀로이드 베타 축적 예측 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143353A (ja) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143353A (ja) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Deep Learning Based Imaging Data Completion for Improved Brain Disease Diagnosis, Med Image Comput Comput Assist Interv.(2014)*
Methods on Skull Stripping of MRI Head Scan Images─a Review, Journal of Digital Imaging Volume 29, Issue 3 (2016.06.)*
딥러닝 기반의 멀티-모달 MRI 영상에서의 뇌종양 영역 분할, 한국정보과학회 학술발표논문집(2016)*
분류 기법을 이용한 방광암 재발 예측, 정보과학회논문지, 데이타베이스 제39권 제3호(2012.06)*

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102068279B1 (ko) 2019-10-04 2020-01-20 주식회사 루닛 이미지 분석 방법 및 시스템
KR102068277B1 (ko) 2019-10-04 2020-02-11 주식회사 루닛 이미지 분석 방법 및 시스템
KR20210040761A (ko) 2019-10-04 2021-04-14 주식회사 루닛 이미지 분석 방법 및 시스템
US11100359B2 (en) 2019-10-04 2021-08-24 Lunit Inc. Method and system for analyzing image
US11630985B2 (en) 2019-10-04 2023-04-18 Lunit Inc. Method and system for analyzing image
US11854194B2 (en) 2019-10-04 2023-12-26 Lunit Inc. Method and system for analyzing image
WO2023163444A1 (ko) * 2022-02-25 2023-08-31 재단법인 아산사회복지재단 Ndt 정밀 뇌 영상 생성 방법 및 장치

Also Published As

Publication number Publication date
KR20180097214A (ko) 2018-08-31

Similar Documents

Publication Publication Date Title
KR101917947B1 (ko) 딥러닝을 사용하여 재발 부위를 예측하고, pet 이미지를 생성하는 방법과 장치
KR101854071B1 (ko) 딥러닝을 사용하여 관심 부위 이미지를 생성하는 방법 및 장치
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
CN108629736A (zh) 用于设计超分辨率深度卷积神经网络的系统和方法
US9280819B2 (en) Image segmentation techniques
CN109564575A (zh) 使用机器学习模型来对图像进行分类
WO2014120727A2 (en) Method and apparatus for generating a derived image using images of different types
US20210097390A1 (en) Artificial learning fracture system and method for predicting permeability of hydrocarbon reservoirs
WO2018112137A1 (en) System and method for image segmentation using a joint deep learning model
CN107330935B (zh) 一种管状目标中心线的提取方法及装置
KR102328198B1 (ko) 인공신경망을 이용한 장기의 부피 측정 방법 및 그 장치
WO2020234349A1 (en) Sampling latent variables to generate multiple segmentations of an image
Kang et al. Acu-net: A 3d attention context u-net for multiple sclerosis lesion segmentation
CN111488901A (zh) 在cnn中从多个模块内的输入图像提取特征的方法及装置
CN114187624A (zh) 图像生成方法、装置、电子设备及存储介质
CN116912299A (zh) 运动分解模型的医学图像配准方法、装置、设备及介质
Li et al. Pancreas segmentation via spatial context based u-net and bidirectional lstm
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
US10169874B2 (en) Surface-based object identification
CN117576387A (zh) 多模态脑肿瘤图像分割方法、装置、电子设备和存储介质
CN117474879A (zh) 主动脉夹层真假腔分割方法、装置、电子设备及存储介质
CN113192031A (zh) 血管分析方法、装置、计算机设备和存储介质
CN113554550B (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
Juneja et al. PC‐SNet for automated detection of prostate cancer in multiparametric‐magnetic resonance imaging
US20140032180A1 (en) Method and apparatus for computing deformation of an object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant